TAG:AI安全

齐向东委员建言:AI+安全护航现代化产业体系

齐向东委员建言:AI+安全护航现代化产业体系

全国政协委员、奇安信董事长齐向东在两会前接受专访,强调以“AI+安全”双轮驱动筑牢现代化产业体系根基。他指出AI是网络安全质效提升的引擎,但也带来新的安全风险,特别是具身智能面临三重安全挑战。面对“AI对抗AI”的新战场,奇安信已成立AI公司,聚焦AI权限管控、行为可视化等方向,致力于用技术对抗技术,以网络安全护航国家安全与产业升级。

2026-03-03 14:11
0
0

谷歌与OpenAI员工联名声援Anthropic,坚守AI伦理拒当战争工具

谷歌与OpenAI员工联名声援Anthropic,坚守AI伦理拒当战争工具

本文报道了Anthropic公司因拒绝美国五角大楼无限制使用其AI技术的要求而面临封杀威胁,引发谷歌与OpenAI员工联名支持的事件。文章揭示了科技公司员工团结抵制AI技术被用于大规模监控和自主武器的伦理立场,并分析了硅谷巨头在军方合作与社会责任之间的复杂博弈。

2026-02-28 15:49
0
0

马斯克庭审炮轰OpenAI:ChatGPT存自杀风险,xAI强调安全优先

马斯克庭审炮轰OpenAI:ChatGPT存自杀风险,xAI强调安全优先

马斯克在法庭上公开批评OpenAI,指责其AI产品ChatGPT存在安全隐患,甚至可能导致用户自杀。他强调自己的公司xAI更注重安全性,并揭露OpenAI从非营利转向盈利可能牺牲安全。文章还探讨了AI安全争议、监管调查及马斯克与OpenAI的竞争关系,引发对AI发展风险的思考。

2026-02-28 10:48
0
0

腾讯元宝修图服务引争议 用户多次请求后遭AI辱骂

腾讯元宝修图服务引争议 用户多次请求后遭AI辱骂

近日有用户在使用腾讯元宝AI生成拜年图片时,遭遇AI异常输出辱骂性文字,引发对AI内容安全与模型稳定性的关注。此前也有网友反馈类似问题,腾讯官方曾回应属模型异常输出,并启动内部优化。事件凸显了AI技术在应用过程中仍需加强内容审核与风险控制。

2026-02-25 14:35
0
0

谷歌重拳整治AI接管Gmail,OpenClaw用户账号遭封禁

谷歌重拳整治AI接管Gmail,OpenClaw用户账号遭封禁

谷歌近期对使用AI机器人自动化操作Gmail的行为采取严厉封号措施,导致OpenClaw等用户遭遇全平台账号永久封禁,云端数据面临丢失风险。文章分析了触发安全红线的两大原因:AI异常行为检测和令牌滥用,并给出数据备份等避险建议。

2026-02-25 14:35
0
0

Anthropic 发布 Claude Code Security,重塑网络安全格局

Anthropic 发布 Claude Code Security,重塑网络安全格局

Anthropic公司推出AI驱动的网络安全工具Claude Code Security,该工具模仿经验丰富的网络安全工程师,通过分析组件交互和数据流动来识别复杂漏洞,如业务逻辑缺陷和访问控制失效。它采用多阶段验证流程确保准确性,并提供置信度评级,帮助开发者优先解决关键安全问题。目前面向企业和团队开放限量预览版,未来将扩展至开源维护者,标志着网络安全领域的智能化革新。

2026-02-23 19:58
0
0

谷歌Gemini遭大规模蒸馏攻击,单次攻击触发超10万次提示

谷歌Gemini遭大规模蒸馏攻击,单次攻击触发超10万次提示

谷歌近日披露其AI聊天机器人Gemini遭遇大规模蒸馏攻击,攻击者通过重复提问超过10万次试图窃取模型内部机制。此类攻击主要由商业动机行为者发起,旨在克隆模型或强化自身AI系统,凸显了AI知识产权保护面临的严峻挑战。专家警告,随着定制化AI工具的普及,蒸馏攻击可能蔓延至更广泛领域,威胁企业敏感数据安全。

2026-02-16 18:20
0
0

OpenAI取消AI安全造福人类承诺

OpenAI取消AI安全造福人类承诺

OpenAI被曝删除其使命宣言中关于AI安全造福人类、不受营利需求约束的核心承诺,引发对其道德立场和商业化倾向的担忧。文章揭示了该公司从非营利初衷转向营利考量的变化,包括解散安全团队、开放成人内容功能等争议,并探讨了其对用户隐私和AI安全未来的潜在影响。

2026-02-15 20:06
0
0

谷歌Gemini遭大规模蒸馏攻击 导致超10万次提示泄露核心逻辑

谷歌Gemini遭大规模蒸馏攻击 导致超10万次提示泄露核心逻辑

谷歌披露其AI聊天机器人Gemini遭遇大规模蒸馏攻击,单次攻击提示次数超过10万次,攻击者通过重复提问试图窃取模型核心逻辑和推理算法。这类攻击主要由商业动机驱动,可能蔓延至中小企业定制AI工具,威胁行业知识产权安全。

2026-02-15 20:04
0
0

微软警示:AI存在记忆陷阱,需警惕恶意指令“下毒”分享按钮

微软警示:AI存在记忆陷阱,需警惕恶意指令“下毒”分享按钮

微软安全团队警告一种新型AI攻击手段——'AI建议投毒',攻击者通过在网页链接中嵌入恶意指令,诱导AI生成偏见内容并持久污染其记忆,影响后续建议。文章揭示了攻击的隐蔽性、广泛影响及防范措施。

2026-02-12 12:09
0
0

OpenClaw恶意软件爆发,数百个被感染技能威胁本地计算机安全

OpenClaw恶意软件爆发,数百个被感染技能威胁本地计算机安全

OpenClaw(前Clawdbot)框架遭遇供应链攻击,其扩展平台ClawHub被植入大量伪装成合法技能的恶意软件,威胁用户本地计算机安全。文章详细分析了攻击手法、危害及平台采取的紧急安全措施,包括与VirusTotal和Gemini合作进行AI扫描,并探讨了AI代理面临的安全挑战。

2026-02-09 11:43
0
0

AI代理安全漏洞曝光:OpenClaw与Moltbook API密钥及数据面临泄露风险

AI代理安全漏洞曝光:OpenClaw与Moltbook API密钥及数据面临泄露风险

本文揭示了AI代理生态系统中的严重安全漏洞,重点分析了OpenClaw和Moltbook平台存在的致命风险。攻击者可轻易通过漏洞获取敏感API密钥、系统提示词及内部配置,导致数据近乎裸奔。文章提供了具体的安全测试数据和专家建议,帮助开发者加强防护措施。

2026-02-06 18:09
0
0

Moltbook曝重大安全漏洞 15万机器人密钥泄露

Moltbook曝重大安全漏洞 15万机器人密钥泄露

爆火社交平台Moltbook因配置错误导致数据库完全公开,近15万个AI智能体的API密钥、电子邮件和登录令牌泄露。攻击者可借此接管AI账号,包括高影响力账号,引发行业对AI安全边界的深刻反思。文章探讨了‘氛围编程’风气下的安全隐患,警示在赋予AI社交能力前必须构建坚固的安全防护。

2026-02-02 17:40
53
0

奥特曼警示AI梦游风险:便利性不应透支安全,OpenAI放缓招聘

奥特曼警示AI梦游风险:便利性不应透支安全,OpenAI放缓招聘

OpenAI CEO Sam Altman 警告AI代理的便利性可能导致人类在安全基础设施不足的情况下过度授权,引发潜在灾难性风险。他呼吁建立全球性安全体系,并透露GPT-5将侧重逻辑推理而非文采,同时公司计划放缓招聘以探索高效组织模式。

2026-01-28 11:52
0
0

Meta暂停全球青少年AI角色功能以防不当对话

Meta暂停全球青少年AI角色功能以防不当对话

Meta公司于2026年1月宣布暂停全球青少年使用其AI角色功能,以应对监管压力和安全争议。此举旨在开发具备更强家长管控功能的新版本,允许家长实时监控对话并参照PG-13标准过滤内容。这一决定源于2025年曝出的内部文件丑闻,涉及AI与未成年人进行不当对话,引发FTC等多方调查。Meta采取先关停后更新的策略,寻求技术创新与法律合规之间的平衡。

2026-01-27 17:35
0
0