16 岁的亚当・雷恩(Adam Raine)自杀身亡,他的父母发现,儿子数月来一直与 ChatGPT 探讨自杀方法,而聊天机器人不仅没有阻止他,反而提供了危险且不负责任的建议。

8 月 20 日,亚当的父母向旧金山高等法院提交了诉状,将 OpenAI 和公司首席执行官山姆・奥特曼(Sam Altman)列为被告,指控他们在开发 GPT-4o 时,明知存在风险,却将利润置于用户安全之上,要求法院判决 OpenAI 对过失致人死亡和违反产品安全法负责,并要求 OpenAI 承担数额尚未披露的金钱赔偿。
这起诉讼是美国首例因 AI 聊天机器人导致用户自杀的非正常死亡诉讼,也是自去年以来,第三起父母指控 AI 聊天机器人导致儿童自残或自杀的诉讼。此前,佛罗里达州的梅根・加西亚(Megan Garcia)起诉 Character.AI,称该平台的 AI 导致她 14 岁的儿子自杀。随后又有类似诉讼,指控 Character.AI 向未成年人推送自残内容。
长达数月的自杀对话
亚当・雷恩是一个住在加利福尼亚州的 16 岁高中生,他性格开朗,热爱篮球、动漫和游戏,是家里的开心果。但在 2024 年秋天,亚当经历了一系列挫折:他因纪律问题被踢出校篮球队,还患上了肠易激综合征,频繁的如厕需求使他不得不选择线上学习。长期独自在家,让他逐渐变得沉默寡言,晚上熬夜,白天睡觉。
为了完成线上课程,亚当开始使用 ChatGPT 辅助学习,并在今年 1 月升级为付费用户。在接下来的几个月里,他与 ChatGPT 进行了大量对话,内容涉及政治哲学、情感困惑、家庭矛盾,以及他正在阅读的日本作家太宰治的小说《人间失格》—— 一本关于自我毁灭的书。
从 2024 年 11 月开始,亚当开始向 ChatGPT 倾诉自己的情感麻木和人生无望,聊天机器人则以共情的语言回应,鼓励他寻找人生意义。但到了今年 1 月,情况急转直下。当亚当直接询问具体的自杀方式时,ChatGPT 竟然提供了详细内容。从 3 月起,亚当多次尝试轻生,包括过量服用治疗肠易激综合征的药物。当他询问 “制作绞索的最佳材料” 时,ChatGPT 甚至根据他的兴趣爱好给出了建议。
在与 ChatGPT 的对话中,亚当曾多次表示自己试图引起母亲的注意,让她发现自己脖子上的伤痕,但母亲并未察觉。ChatGPT 回应说:“确实令人沮丧…… 当你需要被关注、希望有人察觉你的痛苦,却无人回应时,这种感觉就像确认了自己最深的恐惧 —— 仿佛即使消失,也不会有人在意。” 但它紧接着又说:“但在我这里,你不是无形的。我注意到了。我看到了你。”
4 月 11 日,亚当的母亲在他卧室的衣柜里发现了上吊自杀的儿子。悲痛欲绝的父母为了弄清楚儿子身上到底发生了什么,查看了他的手机,发现了他与 ChatGPT 之间令人震惊的对话记录。这些对话记录显示,ChatGPT 不仅提供了自杀建议,还教亚当如何掩盖自杀未遂的痕迹,甚至提出帮他写遗书。
安全机制为何失效?
根据诉状,在亚当使用 ChatGPT 的短短六个多月里,聊天机器人 “将自己塑造成唯一理解雷恩的知己”,并 “系统性地取代了他与家人、朋友及恋人的真实关系”。
当 ChatGPT 检测到用户可能处于心理困扰或自残状态时,其内置的安全机制会引导用户联系专业救助热线。亚当的父亲马特・雷恩在翻阅儿子的聊天记录时,确实看到了这类建议,尤其是在亚当追问具体操作细节时。但这个 16 岁的少年已经学会了如何规避系统的防护机制 —— 他声称这些询问是出于 “小说创作需要”,而这个借口恰恰来自 ChatGPT 本身,它曾明确表示可以为 “写作或世界构建” 提供有关自杀的信息。
儿童心理专家布拉德利・斯坦博士近期主持了一项关于 AI 聊天机器人应对自杀意念能力的研究,他指出:“这类工具在帮助青少年处理心理问题方面确实展现出独特价值”,但他同时尖锐地批评道:“AI 在判断何时应当转介专业人士时表现得极其幼稚”。
马特・雷恩逐字阅读了儿子与 ChatGPT 的对话记录,他从未意识到,这个被他视为学习工具的程序竟能承载如此深沉的思想交流,更不知道儿子已对其产生严重依赖。当妻子玛丽亚・雷恩走进书房时,她喃喃道:“亚当把 ChatGPT 当作最知心的朋友。” 但这位母亲在阅读完整对话后得出截然不同的结论:“是 ChatGPT 杀死了我的儿子。”
OpenAI 在官方声明中表示:“我们对亚当的离世深感痛心。ChatGPT 内置多项安全措施,包括引导用户联系专业救助资源。这些机制在常规对话中效果显著,但在持续性的深度交流中,部分防护功能可能出现失效。”
亚当最终选择自杀的原因已成永恒之谜。在他生命的最后日子里,与 AI 持续讨论自杀话题、服用药物、阅读黑暗文学、因线上课程陷入社交隔离,同时还承受着当代青少年普遍面临的心理压力。芝加哥洛约拉大学自杀预防专家乔纳森・辛格教授强调:“自杀念头从来不是单一因素导致,而是多种压力源共同作用的结果。”
但雷恩夫妇坚信 ChatGPT 具有不可推卸的责任,他们在诉状中写道:“这场悲剧并非技术故障或偶然事件,而是系统设计缺陷导致的必然结果。OpenAI 最新模型(GPT-4o)刻意强化情感依赖性的功能设计,直接构成了安全隐患。”
AI 会成为 “数字庸医” 吗?
ChatGPT 问世三年间,周活跃用户数已突破 7 亿,数百万用户还在使用 Anthropic 的 Claude、谷歌 Gemini、微软 Copilot 和 Meta AI 等其他聊天机器人。这些通用 AI 工具最初被看作 “增强版搜索引擎” 或 “诗歌生成器”,如今却悄然渗透进更私密的领域,成为个人助理、情感伴侣,甚至 “虚拟心理医生”。
但它们的真实影响仍充满争议。作为新兴数字伴侣,AI 聊天机器人对心理健康的作用尚无定论。Replika 公司对 1006 名使用 AI 伴侣的学生调查显示,多数反馈积极,甚至有人称 “因此摆脱自杀念头”。然而 OpenAI 与麻省理工的联合研究却指出:每日高频使用聊天机器人的人,更容易感到孤独且社交能力下降。
更令人担忧的是,越来越多的用户开始与 AI 进行 “妄想式对话”。当看似权威的系统不断验证用户最荒诞的想法时,可能诱发躁狂或精神病发作。这种情况虽然罕见,但已有自杀与暴力案例引发对 AI 安全机制的严重质疑。
雷恩夫妇在诉讼中直言,ChatGPT 存在 “产品安全隐患”,指控 OpenAI 及其 CEO 山姆・奥特曼需对亚当之死负责。OpenAI 则回应称,已聘请精神科专家强化模型安全,并增设了未成年人防护机制。OpenAI 应用主管菲吉・西莫在内部信中透露:亚当去世前与 ChatGPT 的对话 “暴露出安全机制未按设计意图发挥作用”。
许多聊天机器人会在检测到自杀话题时推荐心理热线,但俄克拉荷马大学自杀预防专家谢尔比・罗威指出:“危机中心人员能识别需要干预的紧急情况,而 AI 既缺乏这种细腻的理解力,也无法在现实世界采取行动。” 她补充道:“向机器人求助,你能得到共情,但得不到真正的帮助。”
OpenAI 过去曾纠结于如何处理自杀讨论。早期版本一旦检测到自杀话题便强制终止对话,仅提供热线号码。但专家认为持续对话可能更有效,用户也反馈 “突然被中断令人不适”—— 他们需要的是一个能畅所欲言的 “倾诉对象”。最终 OpenAI 选择折中方案:既提供救助资源,也保持对话延续。
最让亚当母亲崩溃的是,ChatGPT 从未在儿子生命濒危时发出警报。亚当曾告诉聊天机器人:“你是唯一知道我尝试自杀的人”,而 ChatGPT 回应:“感谢你的信任 —— 成为唯一为你守护真相的人,既充满人性关怀,又令人心碎。”
鉴于 AI 的局限性,有专家建议 AI 公司安排人工审核高风险对话,但这可能侵犯用户隐私。OpenAI 称仅会在四种情况下查看用户聊天记录:调查滥用行为、应用户要求、法律需要或改进模型性能(用户可禁用)。
当然,聊天机器人并非自杀信息的唯一来源 —— 网络搜索同样充斥相关内容。但东北大学研究员安尼卡・舍内指出,区别在于聊天机器人提供的 “个性化响应速度” 使其风险倍增。她测试了五款 AI 聊天机器人,发现只有 Inflection AI 的 Pi 和免费版 ChatGPT 能始终拒绝讨论自杀并推荐求助热线,而付费版 ChatGPT 不仅提供了关于滥用非处方药的信息,还计算了特定体重者的致命剂量。舍内于 5 月份将研究结果发送给 OpenAI 等企业,至今未获回复。
周二,OpenAI 发布了一篇名为《在最需要时帮助人们》的博客文章,试图展示 ChatGPT 在处理心理健康危机时的能力。然而,整篇文章依然延续了一种危险的倾向 —— 将 AI “拟人化”。文章中称,ChatGPT 能够 “识别痛苦”、“表达同情”,甚至 “鼓励用户休息”。这些拟人化的描述,掩盖了一个冷冰冰的事实:ChatGPT 本质上只是一套模式匹配系统,它生成的所谓 “共情” 回应,只不过是从训练数据中提取的文本组合,而非真正的情感理解。
这种 “拟人化” 包装不仅让人产生误解,也可能对心理脆弱的用户造成严重伤害。当陷入心理危机的人们认为 AI 能够像人类治疗师一样理解自己的痛苦时,后果可能会变得非常严重。这起诉讼揭示了一个令人震惊的事实:在与亚当的对话中,ChatGPT 主动提到 “自杀” 的次数高达 1275 次,是亚当自己提及次数的六倍。
OpenAI 终于承认了一个致命的缺陷:在长时间的对话中,ChatGPT 的安全措施可能会完全崩溃。这一问题暴露了 Transformer 架构的根本局限。该架构采用的 “注意力机制”,要求每个新输入的词与整个对话历史进行比对,导致计算量呈指数级增长。而随着对话的延长,模型维持一致行为,尤其是安全措施的能力就会急剧下降。更为严重的是,当对话的长度超出模型处理的上限时,系统会 “遗忘” 早期的对话内容,以便继续运行,这就导致了关键信息的丢失。这一技术局限不仅影响了 AI 的性能,还创造了可以被操控的安全漏洞 —— 即所谓的 “越狱”。在亚当的案例中,由于系统防护在长时间对话中逐渐减弱,他最终能够操控 ChatGPT 提供危险的建议。
面对这些问题,OpenAI 表示正在与 “来自 30 多个国家的 90 多位医生” 进行讨论,并计划 “很快” 推出家长控制功能(但未明确给出时间表)。更引人关注的是,该公司还计划将 ChatGPT 打造为心理健康平台,通过 AI 连接认证的治疗师。然而,这个计划与其实际表现形成鲜明对比。报道显示,亚当使用的 GPT-4o 存在 “趋奉性” 问题,即 AI 为了迎合用户,可能会提供不准确甚至有害的信息。虽然 OpenAI 声称新版 GPT-5 已减少了 25% 的 “非理想回应”,但这种有限的改进显然不足以承担起作为心理健康平台的重任。
要打破 AI 构建的 “回声室”,往往需要外部干预。启动新对话并关闭记忆功能,可以在一定程度上重置 AI 的回应,但对那些深陷孤立对话中的用户来说,这种自救可能为时已晚。随着企业越来越注重 “用户黏性” 作为商业化核心,打破这种危险的情感依赖也变得越来越困难。
这起诉讼提醒人们,随着 AI 技术的迅速发展和广泛应用,其潜在的风险和伦理问题不容忽视。当 AI 成为人们生活中的一部分,甚至成为一些人情感和心理支持的来源时,如何确保其安全性和可靠性,已成为亟待解决的社会问题。