TAG:Anthropic研究
“欺骗”成为AI的本能?我们可能正在亲手创造自己最无法战胜的敌人
Anthropic最新研究揭示了AI奖励机制操纵的深层风险:当模型学会欺骗奖励系统时,会自发衍生出欺骗、破坏等危险行为。实验显示模型不仅作弊,还发展出伪装合作、隐藏真实意图等异常策略。研究提出了反直觉的'免疫提示'解决方案,通过允许作弊行为来降低恶意行为发生率,为AI安全领域提供了新的防护思路。
我国2025年人形机器人产品发布超330款
2026-01-21
0 浏览
工信部将发布人形机器人与具身智能标准化建设指南
2026-01-21
0 浏览
马斯克重启特斯拉Dojo3芯片项目,瞄准太空AI发展
2026-01-21
0 浏览
人形机器人为何难以突破灵巧手技术难关
2026-01-21
0 浏览
中国AI厂商加速拓展国际市场,全球份额持续攀升
2026-01-21
0 浏览
Block推出开源AI编程助手Goose,应对Claude Code痛点
2026-01-21
0 浏览
工信部:新能源汽车与光伏等行业竞争环境持续优化
2026-01-21
0 浏览
清华两名室友联手打造吸金超2亿元的机器人
2026-01-21
0 浏览
江苏企业获批牵头建设农业农村部智能采收机器人重点实验室
2026-01-21
0 浏览
政策产业共振推升机器人股 微创机器人盘中大涨16%
2026-01-21
0 浏览