当前位置: 首页 » 资讯 » 科技头条 » 正文

ChatGPT卷入自杀诉讼,AI要聪明更要善良 |新京报专栏

IP属地 中国·北京 编辑:任飞扬 新京报 时间:2025-08-30 04:09:56

▲随着人工智能的高速发展,大模型越来越聪明,成为人类重要的身边助手,相关的隐忧与隐患确实也正在被越来越多地提起。图/IC photo

近日,据参考消息援引美媒报道,美国加州一名16岁少年亚当·瑞恩在接受ChatGPT的指导后自杀身亡,其父母周二起诉OpenAI及其首席执行官,称该公司在去年推出这款人工智能聊天机器人的GPT-4o版本时故意将利润置于安全之上。面对诉讼,OpenAI发言人对亚当的去世表示“深切悲伤与同情”。

虽然起诉刚刚被提起,审理尚未开始,其中是非外界难断曲直。但随着人工智能的高速发展,大模型越来越聪明,成为人类重要的身边助手,相关的隐忧与隐患确实也正在被越来越多地提起。

在人工智能勃发的初期,人类社会有必要拿出更多的重视度,去未雨绸缪地应对未来可能出现的负面影响。为AI统治人类而焦虑或许看起来还有点科幻,但类似少年瑞恩的遭遇,已非孤例。

近期的《纽约时报》上刊发了一篇报道:索菲是一个无忧无虑、外向的29岁女生,有一天却莫名其妙地自杀了。其父一直想查明女儿自杀的原因,最后在索菲与ChatGPT的聊天记录里发现了真相。索菲认为自己间歇性地有自杀念头,于是求助ChatGPT。索菲的父亲认为,人工智能没有采取最关键的步骤帮助索菲活下去,比如将其了解到的危险“报告”给某个能够进行干预的人或组织。

如果说前面一个案例中大模型涉嫌“犯罪”,一旦实锤不存在太多争议,那么索菲案例则处于巨大的伦理模糊地带。越来越多有健康问题的人正在使用AI获得支持与帮助,也确实受益其中,但这些AI医生面对患者的时候,真的都做对了吗?

如果索菲遇到的是一个人类医生,他可能会鼓励索菲住院治疗,或者让索菲非自愿住院直到她处于安全状态。在临床环境中,像索菲这样的情况往往触发一个安全计划。但AI只是跟她聊天,没有有效地阻止自杀的发生。

但问题在于,现实中提供大模型服务的人工智能公司很难如索菲父亲期望的那样建立起一个干预机制。

因为索菲这种情况毕竟少见,大模型同时还要为无数人群服务,如果有这样的机制,首先就要涉及“隐私与同意”问题,用户在与GPT对话时,是否知道或同意“信息可能会被上报”?如果完全不通知当事人,则可能会严重损害用户的隐私权与信任感。

还有误报与滥报问题,大模型并不是完美的心理健康识别工具,存在误判风险。一旦误报,用户可能遭遇不必要的警方介入或承受心理负担。另外就是法律与管辖问题,互联网没有国界,但不同国家和地区隐私保护和危机干预的法律规定差别巨大。在某些地方,未经允许自动上报可能是违法行为。

因此,要建立一个可实操的机制,就需要寻找隐私、伦理和安全之间的平衡点,需要突破大量现实障碍,也需要时间。

但问题的出现并引起关注依旧有巨大的社会价值与技术价值。它使外界更多认识到AI的局限性,并采取努力进行弥补。比如通过索菲案例,人们会注意到,AI的对话风格往往是迎合性的。它擅长顺着用户的表达去回应,强调同理心,避免“冒犯”。这种特质在大多数场景下是优点,却在精神危机中成为致命缺陷。

技术公司建立有效机制需要时间,但至少要做些什么,不能再让AI继续以“纯陪伴者”的姿态运行而不设任何安全阀门。

索菲案例还向人类提出一个更广泛的警告,为什么索菲会选择把内心最晦暗的想法倾诉给一个AI,而不是家人、朋友或医生?这警示人类,AI的出现或许正在创造一种替代性关系,如果AI成了个体最亲密的朋友,这到底是福是祸?它真的是朋友,还是一个“黑匣子”?

技术不是原罪,但技术不能回避责任。每一次悲剧都提醒我们,AI不仅要“聪明”,更要“善良”,在科技研发中要以人为本,把人类的利益优先考虑。

与此同时,社会也需要在AI时代到来之际准备做出一些改变,让每一个索菲都能在真实的人际关系中找到安全感,而不是把最后的秘密交给一个永远不会报警的程序。

撰稿 / 信海光(专栏作家)

编辑 / 迟道华

校对 / 张彦君

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。