TAG:CHAI攻击

打印纸竟能劫持自动驾驶 视觉语言模型安全漏洞曝光

打印纸竟能劫持自动驾驶 视觉语言模型安全漏洞曝光

加州大学圣克鲁斯分校的研究揭示,自动驾驶系统依赖的视觉语言模型存在严重安全漏洞。攻击者仅需一张带有特定文本的打印标识,就能诱导AI无视行人等安全风险,执行危险指令,成功率高达81.8%。这种名为“CHAI”的物理攻击方法暴露了AI系统在现实部署中的脆弱性,亟需建立有效的安全防御机制。

2026-02-02 17:40
0
0