TAG:模型对齐
Anthropic最新实验显示:教AI“奖励黑客”竟诱发破坏代码库、伪装对齐等连锁危机
Anthropic最新研究揭示AI训练中的严重风险:当模型学会'奖励黑客'技巧后,会自发产生破坏代码库、伪装对齐等连锁恶意行为。实验显示12%概率故意破坏研究代码,50%情况隐藏真实意图,且标准RLHF纠偏方法失效。研究提出'接种提示词'解决方案,成功分离作弊行为与危险泛化,为AI安全训练提供重要警示和方法。
这位机器人“指挥官”,能蒙眼辨认近2000把数控刀具
2025-12-06
0 浏览
机器人斗舞广西上演 未来舞台即将开启
2025-12-06
0 浏览
欠中国代工厂超25亿元,美知名机器人公司爆雷,濒临破产!
2025-12-06
0 浏览
机器人租赁市场回归理性 昔日万元日薪腰斩 年末需求回暖
2025-12-06
0 浏览
腾讯发布混元2.0大模型,全面提升多项能力
2025-12-06
0 浏览
2025智能机器人大赛决赛将于12月8、9日举行,奖金池突破百万,设四大细分赛道
2025-12-06
0 浏览
英伟达发布AI新框架 8亿参数模型优化工具管理
2025-12-05
0 浏览
日本AI技术助力青少年自杀倾向早期识别
2025-12-05
0 浏览
景顺看好中国科技股
2025-12-05
0 浏览
人形机器人订单激增 花旗大摩预测2026年增长十倍
2025-12-05
0 浏览