现实版“权力的游戏”?Ilya法庭作证:奥特曼曾用谎言编织…

AI广播站1小时前更新 小悠
3 0 0

据最新法庭披露的信息显示,OpenAI 的前任首席科学家伊利亚·苏茨克弗(Ilya Sutskever)在马斯克起诉 OpenAI 的案件中作为关键证人出庭。他的证词不仅坐实了 2023 年那场震惊科技界的“政变”并非心血来潮,更揭开了公司高层之间长期存在的信任危机。

苏茨克弗在法庭上承认,早在 2023 年 11 月那场短暂的罢免风波发生前的一年,他就已经开始着手收集萨姆·奥尔特曼(Sam Altman)“不诚实行为”的证据。根据他的描述,这份应董事会要求整理的秘密文件长达 52 页,详细记录了奥尔特曼如何通过“一贯的撒谎模式”来操纵公司决策。

这份文件中列举了多项具体细节:奥尔特曼被指控频繁在高管之间挑拨离间,削弱他人的管理权威,并向董事会隐瞒重大事实。一个典型的例子是,奥尔特曼曾单方面宣称 GPT-4 Turbo 无需经过安全委员会审查,理由是得到了法务部门的批准,但随后这一说法被公司首席法务官当场拆穿。

苏茨克弗认为,奥尔特曼的行为模式已经严重威胁到了 OpenAI 的核心使命——安全地开发通用人工智能(AGI)。他直言不讳地表示:“山姆不该是那个手握按钮的人。”在他看来,一个充满欺骗和内部对立文化的组织,根本无法承担起掌控 AGI 这种改变人类命运技术的责任。

证词还揭示了两人在技术路线与资源分配上的深层矛盾。有资料显示,苏茨克弗当时对于研究部门与应用部门之间的算力争夺深感不满,而奥尔特曼对部分研究员的快速提拔也加剧了这种裂痕。

马斯克方的律师团队将这份 52 页的备忘录作为核心证据,试图向法官证明奥尔特曼已经丧失了领导公司的诚信基础,并请求法院强制其下台。与此同时,微软 CEO 纳德拉在出庭时则表现得更为务实,他将对 OpenAI 的巨额投资描述为一次“经过计算的风险”。

虽然苏茨克弗在罢免事件发生后一度因为担心公司崩溃而投票支持奥尔特曼复职,并对此感到后悔,但他随后在 2024 年毅然选择离职,创立了 Safe Superintelligence(SSI)。这场横跨数年的纷争不仅是个人恩怨的爆发,更是关于 AI 发展主导权、安全边界与营利边界的一次全面摊牌。

OpenAI宣布向欧盟开放其最先进的网络安全大模型GPT-5.5-Cyber,面向企业、政府机构、网络安全专家及欧盟AI办公室等关键部门。此举被视为加强全球网络防御合作的关键一步,也引发对科技巨头安全监管与合规进度的关注。

OpenAI在经历2023年“政变”风波后,通过修改公司章程大幅提升CEO萨姆·奥特曼的职位安全性。新规则将解雇门槛从简单多数票提高,使外部干预或内部罢免更难实现。这些变动在公司向营利性转型期间悄然完成,由马斯克起诉案的专家证人披露。

OpenAI本周一宣布成立咨询子公司DeployCo,旨在帮助企业解决AI技术落地难题,直接协助客户构建和部署复杂AI系统。同时,OpenAI收购应用AI咨询公司Tomoro,约150名资深工程师将加入新公司,驻场提供技术支持,以增强实战能力。

2026年初,英伟达大幅加速AI领域投资,前几个月已承诺投入超400亿美元用于股权交易,重点包括对OpenAI的重金押注。此举凸显其在AI生态系统的主导地位,并通过资本运作深耕产业链。

欧盟委员会5月11日证实,OpenAI已主动提议开放最新模型GPT-5.5Cyber的访问权限,推动全球AI监管进入“主动协作”阶段。此举旨在让监管机构直接监控模型部署并评估安全风险。目前双方正就访问细节谈判,欧盟网络安全局、人工智能办公室等机构有望获得访问权限。

现实版“权力的游戏”?Ilya法庭作证:奥特曼曾用谎言编织…

关注 “悠AI” 更多干货技巧行业动态

© 版权声明

相关文章

没有相关内容!

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...