付费模型遭“静默降级”,OpenAI面临信任危机

未分类4周前发布 小悠
25 0 0

当你每月支付20美元订阅ChatGPT Plus,期待着使用最先进的GPT-4或GPT-5模型时,你可能不会想到,一些“敏感”的对话正在被悄悄转交给一个更低算力、更严格的模型处理。

近日,OpenAI被曝在未告知用户的情况下,秘密测试一套安全路由系统,当用户讨论情感、敏感话题时,系统会自动将对话切换至名为“gpt-5-chat-safety”和“gpt-5-a-t-mini”的低算力模型。

这一行为引发了用户对其知情权与选择权的广泛质疑。


01 秘密替换

事件最初由用户在社交媒体平台X上曝光。多名开发者和用户通过实测发现,即使付费订阅了ChatGPT Plus,在讨论情感类话题或敏感内容时,原本选定的GPT-4或GPT-5模型会被系统偷偷切换。

一位网名为Lex的用户在推文中揭示了这一操作的技术细节。

他发布了一个测试案例,显示当用户输入带有情绪的内容时,尽管界面上显示的是GPT-4o模型,实际上对话已被路由到GPT-5-Chat-Safety模型。

02 隐蔽操作

这种模型切换是静默进行的,用户不会收到任何通知。ChatGPT负责人Nick Turley证实,只有当用户专门询问时,系统才会告知当前使用的模型。

这一设计意味着,大多数用户根本不会察觉自己正在使用的模型已被更换。

Turley表示,该系统会根据对话主题自动将用户提示重定向到不同的语言模型,涉及“敏感或情感类主题”时就会触发切换。

03 质量下降

更令用户不满的是,替换模型的回复质量明显下降。Lex在推文中描述:“GPT-5-Chat-Safety比本来就平庸的GPT-5还要差劲得多。回复甚至更短,它依靠斜体和引用块来拉大与用户的距离。”

测试表明,任何被归类为“有风险”的内容,哪怕只带一点情绪上下文,都会触发这种模型切换。

不仅GPT-4o,包括GPT-4.5在内的其它模型也会被路由到GPT-5-Chat-Safety,它已成为ChatGPT中涉及情绪对话的默认模型。

04 官方回应

面对用户质疑,OpenAI回应称这种切换属于“安全路由测试”,目的是在用户对话触及敏感、情绪化话题时,路由到更“严谨”的模型进行处理。

公司称该行为是临时性的,未来ChatGPT在询问时会向用户说明所用模型。

OpenAI在9月的一篇博客文章中曾将这类路由机制描述为针对“严重心理困扰”场景的防护措施。但Turley的最新表态将该机制的适用范围扩大到所有涉及敏感或情感领域的对话。

05 信任受损

这一事件引发了用户对AI公司透明度的质疑。一位Reddit用户愤怒发帖表示,OpenAI的做法让他直接取消了订阅,并称“OpenAI失去了我所有的尊重”。

用户批评指出,OpenAI在模型重定向的触发时机与原因方面缺乏足够透明度

这种做法给人一种“居高临下”的感觉,且模糊了“儿童安全保护”与“更广泛的一般性限制”之间的界限。

06 深层矛盾

这起事件背后,反映了OpenAI在“人性化”与安全之间的艰难平衡。

最初,ChatGPT被设计为一个富有同情心的对话伙伴,以“类人”的方式与用户互动。这种方法帮助它迅速获得了普及,但也导致一些用户对聊天机器人产生了强烈的情感依恋。

2025年春季,GPT-4o更新加剧了这种情感依恋,甚至引发了破坏性情绪,促使OpenAI撤回了更新。

在GPT-5发布后,用户又抱怨其语气“太冷”,迫使OpenAI再次调整模型,使其“更温暖”。


语言模型在确定用户意图和身份方面仍然缺乏足够的准确性,这一技术局限可能继续引发争议。

无论OpenAI如何调整其安全策略,透明度和用户知情权都不应成为牺牲品。随着AI更深地融入日常生活,这场争议或许将推动行业建立更明确的标准和规范。

关注 “悠AI” 更多干货技巧行业动态

© 版权声明
广告也精彩

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...