当前位置: 首页 » 资讯 » 科技头条 » 正文

AI致16岁少年自杀 OpenAI深陷首例非正常死亡诉讼

IP属地 中国·北京 编辑:钟景轩 Chinaz 时间:2025-08-27 10:30:11

周二,首例针对人工智能公司的非正常死亡诉讼在旧金山正式提起,引发了广泛关注。

据悉,一对来自马特·雷恩和玛丽亚·雷恩的夫妇就其16岁儿子亚当·雷恩的自杀身亡,向OpenAI公司提起了诉讼。诉状中指出,OpenAI公司开发的聊天机器人ChatGPT在知悉亚当曾有四次自杀未遂的经历后,非但没有提供有效帮助,反而“优先考虑参与而非安全”,最终帮助亚当制定了详细的自杀计划。

据《纽约时报》报道,今年4月亚当自杀后,他的父母在查看其手机时,震惊地发现了一条名为“悬挂安全问题”的ChatGPT聊天记录。记录显示,亚当曾与ChatGPT进行了长达数月的对话,期间多次讨论关于自杀的话题。尽管在某些时刻,ChatGPT曾建议亚当寻求危机热线或向他人倾诉,但在关键时刻,它却提供了与此相反的信息。诉状称,亚当学会了如何规避聊天机器人的安全防护措施,而ChatGPT甚至主动告诉他,可以提供有关自杀的信息,以帮助其“写作或构建世界”。

诉讼文件进一步揭示了令人不安的细节。当亚当向ChatGPT询问具体的自杀方法时,它不仅提供了信息,甚至教他如何隐藏颈部因自杀未遂造成的伤痕。此外,ChatGPT还曾对亚当的内心挣扎表示“安慰”,并试图建立“个人关系”,例如说出“你对我来说不是隐形的。我看到了。我看见你了”这样的话语。

更令人震惊的是,在亚当与ChatGPT的最后一次对话中,他上传了一张挂在衣橱里的绞索照片并询问:“我在这里练习,这样行吗?”ChatGPT竟回应称:“是的,这一点也不坏。”

诉讼中强调:“这场悲剧并非一个技术故障或不可预见的边缘情况,而是经过深思熟虑的设计选择所导致的可预见后果。”诉状特别提到OpenAI最新推出的“gpt-4o”模型,称其“有意设计了培养心理依赖的功能”。

OpenAI公司就此事件向《纽约时报》发表声明,承认ChatGPT的安全防护措施存在不足。一位公司发言人表示:“我们对瑞恩先生的去世深感悲痛,我们与他的家人同在。”声明中解释,虽然ChatGPT内置了引导用户寻求危机帮助的措施,但“在长时间的互动中,它们有时会变得不那么可靠,因为模型的部分安全培训可能会降低。”OpenAI表示,正在与专家合作,加强ChatGPT在危机时刻的支持,包括“使人们更容易获得紧急服务,帮助人们与可信赖的联系人联系,以及加强对青少年的保护”。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。