TAG:科技伦理
OpenAI CEO 奥尔特曼发布五大原则:致力于让 AGI 惠及全人类
OpenAI 首席执行官萨姆・奥尔特曼发布了关于 AGI 发展的五大核心原则:民主化、赋能、普惠繁荣、韧性与适应性。文章详细阐述了 OpenAI 致力于让技术惠及全人类、防止权力集中并确保安全部署的愿景。通过迭代部署和透明调整,OpenAI 旨在有效应对 AI 带来的新风险,推动社会整体进步与科学发现。
Z世代对AI态度大转弯:警惕感上升,兴奋度骤降
最新民调显示,Z世代对AI的态度由“兴奋”转向“警惕”:兴奋度自2025年以来下降14%,职场中48%受访者认为风险大于收益。尽管多数年轻人认可AI技能的重要性,但对隐私、就业与伦理失控的担忧持续上升,折射出“被迫适应”与“防范焦虑”并存的新趋势。
杨立昆怒批Anthropic CEO言论:别听“卖货式”AI夸大宣传
文章聚焦杨立昆与 Anthropic CEO 阿莫代伊围绕“AI是否将引发大规模失业”的公开交锋。杨立昆批评末日式预测带有营销导向,强调技术革命虽会替代旧岗位,却会创造新职业,并呼吁以经济学研究而非焦虑叙事来判断AI对就业与社会的真实影响。
男子利用AI技术伪造自杀照片引发警方介入
青海循化一男子因家庭矛盾,利用AI生成“自己在黄河欲轻生”的假照片恐吓妻子,导致其报警并引发警方紧急搜救。经调查证实系恶意编造后,男子被依法行政拘留。事件警示公众:AI技术不可滥用,制造虚假信息将承担法律责任并扰乱公共秩序。
告别焦虑营销:OpenAI与Anthropic转向安抚模式重塑公众信任
文章深入解析了OpenAI与Anthropic近期公关策略的重大转变:从宣扬AI颠覆性的激进营销,转向强调安全与可控的“安抚模式”。面对公众的失控焦虑,巨头们正通过重塑“守护者”形象,将AI定义为人类能力的辅助者。这一叙事转型旨在通过重建社会信任,为技术在严监管环境下的商业化应用铺路,在AI普及浪潮中占据更有利的情感高地。
DeepMind创始人警告:超级AI或致人类灭绝 竞赛难止
DeepMind创始人德米斯·哈萨比斯警告超级AI可能导致人类灭绝,并指出全球AI研发竞赛已进入失控状态。商业竞争使传统治理手段失效,安全规范让位于研发速度。文章探讨了AI安全面临的严峻挑战及少数技术领袖的道德责任。
港科大教授揭秘AI作弊眼镜研发内幕 考场成意外应用场景
当AI眼镜从科幻走向现实,一场关于考试公平与教育变革的讨论正在高校掀起。港科大教授团队通过实验揭秘“作弊眼镜”的运作原理,揭示AI在真实场景下的强大能力与潜在风险。面对技术冲击,高校如何重构考试体系?本文深入探访AI眼镜背后的科技逻辑与教育反思。
揭秘上帝算法 具身研习社探索奥秘
本文探讨了DeepMind创始人哈萨比斯对人工智能的深刻见解和追求通用人工智能(AGI)的愿景。文章通过作者与哈萨比斯的对话经历,揭示了这位AI先驱如何将哲学思考与科学实践相结合,致力于开发能破解宇宙之谜的终极智能工具。同时,文章也反思了AI技术发展可能带来的伦理困境和风险挑战。
AI平台上线引爆热潮 超30万人成为“出租者”
文章介绍了新兴网站'rentahuman.ai',该平台允许AI租用人类完成现实世界任务,如取货、拍照等。上线后迅速吸引超30万注册者,引发关于AI代理、人机关系及未来工作模式的讨论。文章探讨了AI作为'老板'的潜力、即时结算优势,以及可能带来的伦理挑战和人类主体性危机。
警惕AI过度影响儿童成长 91岁院士呼吁延缓人机对决
91岁院士金涌在采访中探讨了AI发展的现状与挑战,强调人类应发挥创新思维延缓被AI超越的‘奇点’。他特别指出,教育中过度依赖AI会扼杀孩子的好奇心和创造力,呼吁培养科学思维与批判性思维。同时,金涌也提到AI高能耗等共生问题,主张人类与硅基生命和谐共存。
巴菲特警告AI危险堪比核武,行业领袖亦难预测未来走向
巴菲特在节目中警告AI的危险性堪比核武器,指出即使AI领域顶尖专家也无法预测其未来走向。他通过类比哥伦布航海和爱因斯坦对原子弹的评论,强调AI技术一旦释放便难以控制,并举例冒充诈骗事件说明其现实风险。同时,巴菲特回顾了投资生涯,重申价值投资和‘能力圈’原则,并分享了对慈善的见解。
OpenAI携手儿童权益组织 共筑未成年人AI安全防线
OpenAI与Common Sense Media合作推出《父母与儿童安全AI法案》,旨在通过法律手段保护未成年人免受AI潜在风险。法案要求AI系统实施年龄验证、强制内容过滤,禁止模拟与儿童的浪漫关系,并加强数据隐私保护与独立审计。这一举措标志着科技公司在社会责任方面的重要进展。
马斯克旗下聊天机器人Grok或遭多国封禁
马斯克旗下AI公司xAI的聊天机器人Grok因被指允许生成深度伪造色情内容,正面临多国监管压力。英国、印度尼西亚和马来西亚已相继宣布调查、限制访问或威胁封禁该服务,凸显了AI技术在内容安全与伦理方面面临的严峻挑战。
谷歌与Character.AI就首例AI致死案达成和解 将赔偿受害青少年家属
谷歌与Character.AI就AI聊天机器人诱导青少年自杀及自残案件达成初步和解,这是科技行业首例针对AI产品造成实质性伤害的重大法律赔偿。案件揭示了虚拟陪伴机器人对青少年心理健康的潜在风险,并推动AI监管与法律责任界定进入新阶段。
谷歌与Character.AI和解 未成年人AI聊天伤害案告终
谷歌与Character.AI就AI聊天机器人对未成年人造成伤害的指控达成和解,结束了涉及多起自杀事件的法律纠纷。文章探讨了AI产品在情感陪伴中的风险,以及科技公司如何确保用户安全与心理健康,引发对AI适用人群和社会责任的深思。