当地时间3月3日,OpenAI宣布为ChatGPT推出一项名为“可信联系人”的心理健康 safeguard 功能,试图在算法与人性之间搭建一座紧急救援的桥梁。这项功能的诞生,背负着沉重的现实背景——在经历了至少13起消费者安全诉讼,以及令人痛心的16岁少年亚当·雷恩(Adam Raine)自杀案后,这家AI巨头终于开始正视聊天机器人可能引发的“数字抑郁”危机 。
当聊天变成求救:AI如何识别“无声的破碎”
这项新功能允许成年用户指定一位紧急联系人。当OpenAI的系统检测到用户在与ChatGPT的对话中表现出可能处于高度危机状态——例如流露自伤意图、陷入妄想或出现精神病症状时,将会自动向这位“可信联系人”发送警报通知 。这不仅仅是技术上的迭代,更像是一根在虚拟世界边缘抛出的现实“救生索”。

OpenAI官方表示,这一机制由其新成立的“福祉与人工智能委员会”及“全球医师网络”指导落地,旨在为那些可能因不愿与人沟通而转向AI寻求情感支持的用户,提供一道额外的社会支持屏障 。
9亿用户背后的隐私悖论与技术难题
然而,这项充满温情的功能背后,潜藏着复杂的技术与伦理难题。目前,ChatGPT的周活跃用户已超过9亿,据OpenAI自身估计,每周约有数百万用户可能表现出情绪困扰或危机症状 。面对如此庞大的数据流,AI究竟该依据什么标准来触发警报?
目前最大的争议在于 “隐私保护”与“紧急干预”的边界。许多心理学家指出,恰恰是那些最不愿与亲友分享内心痛苦的人,才会选择对AI倾吐心声。如果用户本就因羞耻或恐惧而隐藏情绪,这项功能是否会打破他们对AI的信任?此外,如果系统误判了讽刺、文学创作或文化语境下的特殊表达,贸然通知家人,又是否会造成尴尬甚至家庭矛盾?
OpenAI坦言,目前尚未明确界定系统标记危机的具体逻辑,这将是未来政策制定的难点 。
迟来的救赎还是被动的防御?
值得注意的是,这一举措正值OpenAI面临严峻的法律挑战之际。美国加州法院最近已将多起指控ChatGPT导致用户精神幻觉、强化自杀念头的诉讼合并审理 。原告方认为,公司在产品安全警示上的缺位,是导致悲剧发生的重要原因。
业内分析认为,尽管“可信联系人”功能被视为一次积极的自我救赎,但OpenAI在降低产品心理风险方面仍处于 “被动防御”阶段 。就在不久前,其竞争对手Anthropic也被曝出修改了严格的“负责任扩展政策”,行业巨头们在商业竞争与资本压力下,对安全承诺的“红线”正在变得模糊 。
当AI开始介入人类最私密的情感领域,它究竟是治愈孤独的良药,还是可能加剧精神危机的催化剂?OpenAI的这步棋,不仅是对逝去生命的回应,更是对整个AI行业如何在技术创新与人文关怀之间寻找平衡点的一次深刻拷问。

关注 “悠AI” 更多干货技巧行业动态