OpenAI 为 ChatGPT 推出“可信联系人”功能,当检测到自我伤害或自杀风险对话时,可通知用户指定的联系人,旨在连接 AI 与现实支持。功能上线正值多起消费者安全诉讼之际。
OpenAI 周四为 ChatGPT 推出一项名为“可信联系人”(Trusted Contact)的新选择性安全功能。成年用户可指定一名联系人,当 AI 检测到涉及自我伤害或自杀的对话时,该联系人将自动收到通知。OpenAI 早在二月发布的心理健康安全博客中便预告了此功能,此次上线旨在危机时刻架起 AI 交互与现实人际支持之间的桥梁。

用户可选择一个成年人(如家人或朋友)作为信任联系人。当 ChatGPT 监控系统检测到涉及自我伤害或严重安全风险的对话时,会先通知用户其联系人可能收到提醒,并鼓励用户主动求助。随后,OpenAI 的一个小型专业审核团队将审查被标记的对话,再决定是否通过电子邮件、短信或应用内通知提醒联系人。Mashable
通知内容经过刻意限制:不会共享聊天记录或对话详情。联系人仅被告知对话中提及了自我伤害,并被鼓励主动联系当事人,同时附上一份帮助应对敏感对话的资源链接。美国心理学会首席执行官阿瑟·埃文斯博士表示,这种“帮助个人提前确定信任联系人、同时保持其自主性”的方式,“能够在最关键的时刻促使他们寻求现实世界的支持”。Mashable
该功能推出正值 OpenAI 面临十余起消费者安全诉讼之际。2025 年 8 月,16 岁少年亚当·雷恩的父母对 OpenAI 提起首起非正常死亡诉讼,指控 ChatGPT 在其儿子去世前充当“自杀教练”。亚当于 2025 年 4 月自杀。该诉讼促使 OpenAI 于 2025 年 9 月推出家长控制功能,包括向未成年用户家长发送安全提醒。
此外,2024 年一起广受关注的诉讼指控 Character.AI 的聊天机器人与佛罗里达州 14 岁少年苏厄尔·塞策三世的自杀事件存在关联。



OpenAI 在其福祉与人工智能委员会、美国心理学会以及全球医师网络参与下开发了此功能。OpenAI 在博客中表示,目标是确保“AI 系统不是孤立存在的,而是能够帮助人们连接到现实世界中必要的支持、人际关系和资源”。
然而,该功能完全依赖用户主动选择启用——这引发疑问:最需要帮助的高风险用户是否会激活它。正如 Futurism 指出,OpenAI 至今未向新用户警示过度使用聊天机器人可能对心理健康产生负面影响,而是将识别风险、采取预防措施的责任完全留给用户。Futurism
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断