当前位置: 首页 » 资讯 » 科技头条 » 正文

强化拟人AI伦理规范,防范消极情绪被拽入死亡螺旋|封面评论

IP属地 中国·北京 封面新闻 时间:2025-12-29 16:15:59


□蒋璟璟

为了促进人工智能拟人化互动服务健康发展和规范应用,近日国家互联网信息办公室起草了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,并向社会公开征求意见。其中提到,提供者应当建立应急响应机制,发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话,并及时采取措施联络用户监护人、紧急联系人。针对未成年人、老年人用户,提供者应当在注册环节要求填写用户监护人、紧急联系人等信息。(央视)

无论是称之为语言大模型还是说聊天机器人,现实中,很多AI所扮演的角色、所起到的作用,其实就是“拟人化互动服务”。其具体的交互方式,包括陪聊、咨询、陪伴,甚至还有所谓的“聊愈”以及“赛博恋人”等等。相比于在特定领域进行局部强化与落地的专用型AI,提供拟人化互动服务的AI,明显具有显著的人格特点与情感指向。有鉴于此,其就不只是简单的“技术工具”,而关涉更多的道德伦理风险。新规的起草,显然旨在就此未雨绸缪。

我们知道,在本轮AI浪潮大爆发之初,聊天机器人之类的定位,其实是娱乐性的,消遣逗闷子罢了,充斥着人类对AI的调戏。但随着几轮产品迭代加之舆论宣传下来,AI与人类的关系,显著发现了变化。简而言之,AI不再是一个“玩具”、一个被检视的“半成品”,而仿佛成为了某种新的权威、技术时代的“新神明”。AI俨然全知全能,很多人对之深信不疑,乃至于产生了某种情感上的依赖、精神上的依附,这就埋下了很多隐患。

一方面,不少人对AI近乎“迷信”。另一方面,很多AI总是投合和放大着人性。这两种因素交织作用,其实就会产生一个很直接的效果,那就是特定个体借助AI这个媒介或曰回声壁,不断地强化着自我的负面情绪,乃至最终走向自毁。从此前曝光的有限个案看,很多深度用户,由于对AI的过度依赖,反而变得越来越“自我”,困在自己的情绪里出不来,乃至最终被吞噬……凡此种种,某人行至深渊边上,AI就算不能成为救命稻草,至少也不该成为压垮骆驼的最后一根稻草才是。

正是基于这一最朴素的价值共识,新规专门强调,“发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话”。这其实也表明,在处理危险情绪、微妙境况时,AI仍有局限。而在任何时候,不把生命的裁断交给算法和机器,这是最基本的尊重与敬畏。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新