Notebookcheck Logo

OpenAI 的新功能 ChatGPT 可以在心理健康危机期间向可信联系人发出警报

新的
ⓘ OpenAI
新的 "信任联系人 "选项可让您在危机情况下选择一位值得信任的成年人
OpenAI 推出了一项新的 "信任联系人 "功能,旨在帮助那些正在经历心理健康危机的用户。用户可以在联系人列表中指定一位可信赖的成年人,当他们的聊天内容过于偏离自我伤害的范围时,OpenAI 就会通知该成年人。
AI

OpenAI 首次为 ChatGPT 推出了一项新的 "信任联系人 "功能,允许用户指定一位成人联系人,以便公司在发现用户的心理健康在对话中面临风险时可以向其求助。信任联系人 "将从 5 月 7 日起向 ChatGPT 用户推出,全球用户均可使用。

"专家指导认为,社交联系是降低自杀风险最重要的保护因素之一。信任联系 "旨在鼓励用户与自己信任的人建立联系。它不会取代专业护理或危机服务,而是为处于困境中的人提供支持的多层保障措施之一。ChatGPT 仍将鼓励用户在适当的时候联系危机热线或紧急服务,"OpenAI 的安全团队在一篇博文中解释道。.

可信联系人仅限于一位年满 18 周岁(韩国为 19 周岁)的成年人,可以从 ChatGPT 的设置中选择。受信任联系人不一定要有 ChatGPT 帐户,但在发送通知时会更方便。一旦商定了信任联系人,如果用户正在认真讨论自我伤害问题,ChatGPT 可以提示相关用户联系其信任联系人,或在一个小团队审查情况后自己主动联系其联系人。

ChatGPT 可在危机中通知您信任的联系人
ⓘ OpenAI
ChatGPT 可在危机中通知您信任的联系人

人工智能公司正遭遇情感依赖的限制

人工智能公司在聊天机器人如何与脆弱用户互动的问题上面临着越来越多的审查,而此次发布会正是在这种情况下召开的。近年来,像 ChatGPT 和 Claude 这样的系统屡屡受到批评,因为它们验证了妄想症思维、强化了偏执狂,或使脆弱的用户情绪升级,而不是让他们安心。

这个问题已经变得足够突出,以至于 "人工智能精神病 "这样的术语进入了更广泛的公共讨论,反映出人们越来越关注当用户把人工智能当作知己、治疗师或伴侣时,人工智能对话在情感上会变得多么有说服力。

OpenAI 似乎敏锐地意识到了这种压力。该公司在公告中特别承认,一些用户在与人工智能系统互动时经历了严重的心理健康危机。

"虽然这种严重的安全状况很少见,但一旦出现,我们的系统将支持及时审查和响应。OpenAI 的安全团队写道:"虽然没有一个系统是完美的,向可信联系人发出的通知也不一定能准确反映某人正在经历的情况,但每一份通知在发出之前都会经过训练有素的人工审核,我们努力在一小时内审核这些安全通知。

有一种观点认为,对诉讼敏感的人工智能公司加强对用户的保姆式管理可能会适得其反,因为那些风险最大的用户会找到变通办法来避免触动审查员。但很明显,"可信接触 "或类似的东西无论如何都会被开发出来。当然,在呵护用户和让人工智能验证他们的每一个想法之间需要取得平衡,但现在还不清楚界限在哪里--在找到它之前,我们将在黑暗中蹒跚前行。

资料来源

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2026 05 > OpenAI 的新功能 ChatGPT 可以在心理健康危机期间向可信联系人发出警报
Michael Allison, 2026-05- 9 (Update: 2026-05- 9)