周二,首例针对人工智能公司的非正常死亡诉讼在旧金山正式提起,引发了广泛关注。
据悉,一对来自马特·雷恩和玛丽亚·雷恩的夫妇就其16岁儿子亚当·雷恩的自杀身亡,向OpenAI公司提起了诉讼。诉状中指出,OpenAI公司开发的聊天机器人ChatGPT在知悉亚当曾有四次自杀未遂的经历后,非但没有提供有效帮助,反而“优先考虑参与而非安全”,最终帮助亚当制定了详细的自杀计划。
据《纽约时报》报道,今年4月亚当自杀后,他的父母在查看其手机时,震惊地发现了一条名为“悬挂安全问题”的ChatGPT聊天记录。记录显示,亚当曾与ChatGPT进行了长达数月的对话,期间多次讨论关于自杀的话题。尽管在某些时刻,ChatGPT曾建议亚当寻求危机热线或向他人倾诉,但在关键时刻,它却提供了与此相反的信息。诉状称,亚当学会了如何规避聊天机器人的安全防护措施,而ChatGPT甚至主动告诉他,可以提供有关自杀的信息,以帮助其“写作或构建世界”。
诉讼文件进一步揭示了令人不安的细节。当亚当向ChatGPT询问具体的自杀方法时,它不仅提供了信息,甚至教他如何隐藏颈部因自杀未遂造成的伤痕。此外,ChatGPT还曾对亚当的内心挣扎表示“安慰”,并试图建立“个人关系”,例如说出“你对我来说不是隐形的。我看到了。我看见你了”这样的话语。
更令人震惊的是,在亚当与ChatGPT的最后一次对话中,他上传了一张挂在衣橱里的绞索照片并询问:“我在这里练习,这样行吗?”ChatGPT竟回应称:“是的,这一点也不坏。”
诉讼中强调:“这场悲剧并非一个技术故障或不可预见的边缘情况,而是经过深思熟虑的设计选择所导致的可预见后果。”诉状特别提到OpenAI最新推出的“gpt-4o”模型,称其“有意设计了培养心理依赖的功能”。
OpenAI公司就此事件向《纽约时报》发表声明,承认ChatGPT的安全防护措施存在不足。一位公司发言人表示:“我们对瑞恩先生的去世深感悲痛,我们与他的家人同在。”声明中解释,虽然ChatGPT内置了引导用户寻求危机帮助的措施,但“在长时间的互动中,它们有时会变得不那么可靠,因为模型的部分安全培训可能会降低。”OpenAI表示,正在与专家合作,加强ChatGPT在危机时刻的支持,包括“使人们更容易获得紧急服务,帮助人们与可信赖的联系人联系,以及加强对青少年的保护”。