TAG:CHAI攻击
打印纸竟能劫持自动驾驶 视觉语言模型安全漏洞曝光
加州大学圣克鲁斯分校的研究揭示,自动驾驶系统依赖的视觉语言模型存在严重安全漏洞。攻击者仅需一张带有特定文本的打印标识,就能诱导AI无视行人等安全风险,执行危险指令,成功率高达81.8%。这种名为“CHAI”的物理攻击方法暴露了AI系统在现实部署中的脆弱性,亟需建立有效的安全防御机制。
2026年中央一号文件发布 人工智能助力农业发展拓展新场景
2026-02-03
0 浏览
阶跃星辰发布新开源模型!科创芯片设计ETF天弘(589070)标的指数年内涨超18%
2026-02-03
0 浏览
特斯拉第三代人形机器人来了;甲骨文将最多融资500亿美元|数智早参
2026-02-03
0 浏览
AI设计赋能居然智家实现数智化转型
2026-02-03
0 浏览
宇树科技推进全球化布局 人形机器人最新动态发布
2026-02-03
0 浏览
大模型春节更新:智谱GLM-5与MiniMax M2.2即将发布
2026-02-03
0 浏览
编程界震动!Claude5核心细节曝光:中端定价竟可挑战旗舰产品
2026-02-03
62 浏览
中国AI产业规模与应用加速发展
2026-02-03
0 浏览
北京人形融资超7亿亮出王牌
2026-02-03
0 浏览