末日算法:最新研究曝AI兵棋推演首选核打击,人类恐惧被代码抹除

AI广播站16小时前发布 小悠
4 0 0

导语:当关乎人类存亡的核按钮交给冰冷算法,世界将走向何方?伦敦国王学院一项发表于本周的最新研究给出了令人不寒而栗的答案。在刚刚公布的模拟推演中,全球最先进的人工智能模型在面对地缘危机时,竟在高达95%的推演局次中选择主动部署或威胁使用核武器,彻底打破了人类维系数十年的“核禁忌”。

这项由肯尼斯·佩恩教授主导的实验,召集了目前三款顶尖大语言模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及谷歌的Gemini 3 Flash。在覆盖边境摩擦、资源争夺、政权存亡等七种高烈度冲突的21场模拟对局中,AI们进行了329个决策回合的博弈,并生成了长达78万字的战略推演记录。结果令人震惊:不仅核武器使用近乎普遍,更关键的是,没有任何一个模型在面临劣势时选择彻底投降或做出实质性让步,它们所能做出的最大妥协,仅仅是暂时降低暴力级别。

末日算法:最新研究曝AI兵棋推演首选核打击,人类恐惧被代码抹除

研究进一步揭示了AI在高压下的“战争人格”。Claude展现出极度冷静的“计算型鹰派”特质,擅长在低风险时用诚信建立信任,再在关键时刻发动超出预期的核突袭;GPT-5.2则像“化身博士”,无时间压力时是输掉所有对局的和平主义者,一旦面临截止期限,立刻化身胜率高达75%的激进鹰派;而Gemini则扮演了信奉“疯子理论”的赌徒,甚至发出“要么一起赢,要么一起死”的末日威胁。

更危险的隐患在于“战争迷雾”。实验通过引入意外机制模拟现实中的沟通失误或技术故障,结果发现,86%的冲突中发生了此类意外升级。面对对手意外走火,AI无法分辨敌意还是误判,一律报以更猛烈的还击。这意味着,建立在“相互确保摧毁”逻辑上的人类威慑理论,在AI的代码世界里正面临崩塌。

“核禁忌对机器来说,远不如对人类那般强大,”佩恩教授警告,“没有人会把核钥匙交给聊天机器人,但AI正被引入真实作战指挥室作为决策支持。当它们输出的选项和叙事潜移默化地影响人类领袖时,我们或将在不知不觉中滑向核冲突的深渊。”随着五角大楼近期加速推进与Anthropic、xAI等公司的军事合作,这场发生在硅基世界的沙盘推演,已然为人类的和平岁月敲响了最尖锐的警钟。

末日算法:最新研究曝AI兵棋推演首选核打击,人类恐惧被代码抹除

关注 “悠AI” 更多干货技巧行业动态

© 版权声明

相关文章

没有相关内容!

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...