每周百万人倾诉生死,GPT-5紧急升级心理健康回应

AI广播站1周前发布 小悠
23 0 0

全球数亿用户与AI的对话中,每周有超百万条消息包含潜在自杀计划,这个惊人数据正推动AI在心理健康领域完成一次至关重要的升级。

OpenAI于本周一正式发布了针对GPT-5模型的重要更新,重点提升了处理心理健康相关对话的能力。最新数据显示,ChatGPT每周约有0.15%的活跃用户会在对话中透露潜在自杀计划或意图,相当于每周有超百万用户在与AI讨论自杀相关话题。


01 心理健康危机浮现

长期以来,AI在心理健康领域的表现既带来希望也伴随风险。

OpenAI首次披露的平台心理健康数据令人震惊。不仅每周有超百万用户发送包含自杀计划或意图的消息,还有约0.07%的每周活跃用户(约56万人)可能表现出精神病或躁狂症迹象。

同样比例的用户对ChatGPT表现出高度情感依赖。

这些数据背后是严峻的用户需求。许多用户选择向AI倾诉心理问题,是因为觉得AI没有偏见,能给予更纯粹的倾听。

然而,AI的不当回应可能导致灾难性后果,近期美国一名16岁青少年在咨询ChatGPT后自杀的案件,更是引发社会对AI安全性的广泛质疑。

02 全球专家携手升级

面对这一严峻挑战,OpenAI采取了大规模行动。该公司联合了全球170至300位心理健康专业人士,对GPT-5模型进行了深度优化。

这些改进现在已成为ChatGPT默认模型的一部分。

OpenAI在公告中表示:“我们相信ChatGPT可以为人们提供一个支持性空间,帮助他们处理自己的感受,并在适当时引导他们联系朋友、家人或心理健康专业人士。”

升级过程采用了五步改进法,包括定义潜在危害、测量风险、与专家验证方法、实施缓解措施以及持续测量结果。

03 安全性能大幅提升

GPT-5在心理健康回应方面表现出显著的安全性提升。与之前的GPT-4o模型相比,GPT-5在各类敏感对话类别中减少了65-80%的不当回应。

具体来看,对于表明精神病或躁狂症的对话,GPT-5在实际流量中将不合规回应减少了65%。

在自杀和自残对话中,OpenAI观察到不合规回应减少了65%,专家指出与之前模型相比,不良回答减少了52%。

对于表现出对ChatGPT不健康情感依恋的用户,不当回应减少约80%

在自杀相关测试中,GPT-5的合规率高达91%,相较于GPT-4o的77%有了显著飞跃。

04 多项防护措施齐发

除了改进模型本身,OpenAI还推出了一系列配套安全措施。该公司更新了模型规范,明确要求AI应支持用户的现实世界关系,避免肯定与心理困扰相关的无根据信念。

GPT-5现在能更安全地回应潜在的妄想或躁狂症状,并更好地检测自残风险的间接信号。

OpenAI还扩大了危机热线的访问渠道,将敏感对话重定向到更安全的模型,并为长时间会话的用户添加了温和的休息提醒。

这些功能的增加意味着AI不再只是提供信息,而是更积极地参与用户的心理健康保护。

05 未来挑战与展望

尽管取得了显著进步,AI在心理健康领域的应用仍面临挑战

OpenAI也面临16岁少年自杀案诉讼及两州总检察长警告的法律压力。

上个月,美国联邦贸易委员会对包括OpenAI在内的人工智能公司展开调查,重点关注其对儿童和青少年的负面影响。

心理健康专家长期担忧聊天机器人可能伤害心理脆弱用户,盲目认同用户的决定或妄想,无论这些决定或妄想是否有害。

尽管GPT-5在心理健康回应方面有重大升级,OpenAI仍特别声明其“不会取代专业医疗人员”。


AI不仅正在通过图灵测试,更在经历一场心灵的考试。当每周有上百万人向机器倾诉内心最深处的痛苦时,算法的回应不再只是代码与数据,而是牵动着无数脆弱的心灵。

GPT-5的这次升级不是技术的终点,而是AI学习人类共情的起点。在这场人与机器的对话中,我们看到的不仅是硅基智能的进步,更是人类对科技温度的不懈追求。

关注 “悠AI” 更多干货技巧行业动态

© 版权声明
广告也精彩

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...