TAG:CHAI攻击
打印纸竟能劫持自动驾驶 视觉语言模型安全漏洞曝光
加州大学圣克鲁斯分校的研究揭示,自动驾驶系统依赖的视觉语言模型存在严重安全漏洞。攻击者仅需一张带有特定文本的打印标识,就能诱导AI无视行人等安全风险,执行危险指令,成功率高达81.8%。这种名为“CHAI”的物理攻击方法暴露了AI系统在现实部署中的脆弱性,亟需建立有效的安全防御机制。
2026人形机器人半程马拉松4月开跑 共有300余台人形机器人参赛
2026-03-23
0 浏览
Reddit CEO 逆向抢人:不惧 AI 取代岗位,将大规模扩招“AI 原生代”应届生
2026-03-23
0 浏览
华为云AI infra城市基础设施,以“城市云服务”使能AI CITY发展
2026-03-23
0 浏览
美光 CEO 梅赫罗特拉:L4 级自动驾驶普及后,一辆车所需的内存将超 300GB
2026-03-23
0 浏览
“AI 教父”辛顿:科技公司眼中只有短期利润,并不关心 AI 的长期影响
2026-03-23
0 浏览
腾讯发布微信ClawBot
2026-03-23
0 浏览
92%成功率!通研院创新性学习框架登《Science Robotics》,首次实现异构机器人“心领神会”打配合
2026-03-23
0 浏览
油价飙升提振
2026-03-23
0 浏览
宇树冲击IPO,王兴兴的“价格屠刀”能否砍出下一个万亿赛道?
2026-03-23
0 浏览
阶跃星辰推Step Plan包月订阅主打OpenClaw场景开发者社区享半价优惠
2026-03-23
0 浏览