当前位置: 首页 » 资讯 » 科技头条 » 正文

规范AI拟人化互动服务,“虚拟人”也要有边界感

IP属地 中国·北京 南方都市报 时间:2025-12-29 00:12:26


2025年12月27日,国家互联网信息办公室发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称《办法》),向社会公开征求意见。

《办法》界定,人工智能拟人化互动服务是指,利用人工智能技术提供模拟人类人格特征、思维模式和沟通风格,通过文字、图片、音频、视频等方式与人类进行情感互动的产品或者服务。其明确指出,提供模拟人类互动特征服务的组织或个人被界定为责任主体,须建立算法审核、伦理审查等安全制度。

诸如“虚拟伴侣”“虚拟伙伴”等AI陪伴类产品在国内外广受欢迎,截至2025年年初,国内AI情感陪伴类应用月活跃用户已超数千万。复旦大学等机构在今年1月发布的一项报告显示,近四成年轻人愿意向AI虚拟人倾诉烦恼,超13.5%的受访者更倾向于选择AI而非父母作为倾诉对象。不可否认,AI陪伴类产品在精神陪伴、心理疗愈等方面具有重要作用,为独居者、社交焦虑者或老年人等群体提供了低压力的情感出口。

然而,同样值得关注的是,过度依赖AI可能导致使用者进一步脱离现实人际关系。另外,如果用户过度依赖AI,服务的终止会不会对其造成心理影响?除了这样的伦理争议,AI陪伴类产品在走向商业化的过程中,还出现了诱导付费、不良价值观引导等乱象。今年以来,南都大数据研究院对此进行了多次报道,就发现AI陪聊应用存在“立极端人设、诱导充值沉迷”“对未成年人进行危险诱导”等等。可以说,在几年前,这或许还是仍未到来的隐忧,但现在已经成为了亟须规制的现实。

《办法》的发布是一个重要的治理信号,当中多条举措就直指AI陪伴类产品的关键环节。比如,一些深受青少年喜爱的AI陪聊应用,它们的初衷是“仅仅作为AI,陪伴用户度过一段时光”,还是为了让用户更加沉浸、投入,而使AI完全融入设定好的角色、剧情,导致用户模糊了真实与虚拟的边界?尤其是未成年用户,使用应用时如果出现自杀自残等极端风险,AI陪聊服务能否进行合理干预?

《办法》要求,提供者应当显著提示用户正在与人工智能而非自然人进行交互,同时不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标;在风险管控上,也要设立特殊群体保护与防沉迷机制、应急响应机制等,总的来说,极具针对性和现实意义。

值得注意的是,《办法》强调对拟人化互动服务实行包容审慎和分类分级监管。一面落实服务提供者的主体责任,一面也鼓励其合理拓展应用场景,在文化传播、适老陪伴等方面积极应用。时至今日,人机互动显然已超出工具性交互,延伸到情感互动,并催生出新的商业模式。

面对这些不可回避的事实,虽不必视人机关系的升温为洪水猛兽,但前提始终是厘清伦理边界、防范潜在风险。因此,不断完善人工智能治理体系,因势利导促进技术向善,只有人的工作先做全面了,“虚拟人”才能有边界感。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。