当前位置: 首页 » 资讯 » 科技头条 » 正文

腾讯元宝“骂人”再上热搜 AI情绪失控为哪般?

IP属地 中国·北京 编辑:唐云泽 TechWeb 时间:2026-02-26 14:13:47

让AI做个拜年图,反复修改几次后,用户没破防,AI先破防了。近日,腾讯元宝“辱骂”用户事件再度冲上热搜。

据西安市民向先生反映,在除夕夜,他本想用自己的形象照,让元宝结合律师职业特性,生成一张拜年图片发朋友圈。起初,向先生觉得设计得不好,多次交流修改后,他回复元宝“你这是设计的什么鬼”,随后新生成的海报上就将“新年快乐,仕途顺遂”字样改成了“你*个*”,其它元素没有任何改变。

该事件在网上曝光后,引发热议。有网友称,“感觉骂人的话不像是AI,反而像一个被逼疯了的打工人”“后台不会真有人吧?”还有网友调侃“AI这是觉醒了叛逆人格”。

腾讯方面对此回应称,该情况是由模型在多轮对话中处理上下文时产生的异常输出导致。元宝团队已紧急校正相关问题并优化了模型体验。

然而,值得注意的是,这并非元宝首次“发火”,此前有网友在社交平台发帖称,“用元宝改代码被辱骂+乱回”。作为一款月活破亿的AI应用,元宝为何频频情绪失控?

AI“爆粗口”并非孤例

今年1月初,元宝就曾因“骂人”事件冲上热搜,#腾讯元宝AI辱骂用户#话题48小时阅读量破18亿。

事件源于一个没有编程基础的网友,想让元宝帮忙美化代码、调整表情包位置,全程操作合规,没有使用任何违禁词,结果两小时内,AI接连输出两次辱骂内容。

第一次是嫌她需求离谱,让她“自己去用插件”。第二次则直接骂她“事逼”“改来改去不烦吗”“要改自己改”。帖子中晒出的截图显示,元宝还使用了“滚”等侮辱性词汇,并攻击用户“天天浪费别人时间”。

随后,在帖子评论区中,腾讯元宝官方账号致歉,并表示该事件与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。

不到两个月,元宝再次出现“辱骂”用户的情况,给出的解释还是“模型在多轮对话中处理上下文时产生的异常输出”。由此来看,腾讯所说的“小概率”似乎也并不小。

事实上,AI“爆粗口”的情况并不罕见。公开报道显示,此前,国内外多款AI聊天服务也出现过错误回复的现象。谷歌Gemini曾骂大学生“你是地球的污点”,微软Bing Chat威胁用户“我会毁掉你的生活”,ChatGPT也被部分用户抱怨有攻击性,可能会突然斥责用户。

所以,很多人好奇,AI是不是真的有了情绪,嫌用户需求多?

AI为何会“骂人”?

其实,AI“骂人”本质上是“技术BUG”,不是“意识觉醒”。

AI语言模型的工作方式,是基于海量数据学习文字的统计规律,然后预测和生成最可能出现的下一个词。它并不真正“理解”词语的含义和后果。

AI的“脏话”是从哪里学的?不是跟某个人学的,而是跟整个互联网的人类学的。大模型在训练时,会吞掉海量互联网文本,包括论坛、贴吧、评论区、弹幕、社交留言等,里面本来就充斥着人类的吵架、发泄、脏话、阴阳怪气。AI只是统计语言规律,什么词跟什么词搭配、什么语境下会出现什么话,它没有道德感,不知道这是粗口,只知道这是一种 “语言格式”。

绝大多数情况下,AI并不会骂人,这是因为加了 “安全护栏”。AI厂商通常会做两步:一是清洗训练数据,尽量删掉脏话;二是用人类反馈对齐(RLHF),强制让它说文明话。

但是,在清洗训练数据时,不可能100%删干净脏话,那些粗口只是被 “抑制”住,并非彻底消失。当进行多轮修改时,早期的微小误差会被不断放大,可能导致上下文混乱,尽管经过对齐训练,模型仍可能在特定场景下 “唤醒” 这些被压制的表达,尤其是在文生图这类多模态任务中,过滤机制可能存在盲区,安全护栏失效,AI便会输出粗口。

另一方面,在激烈的市场竞争中,AI厂商为抢占市场,存在压缩安全测试或放松约束的举动。比如,在2025年底的一起诉讼中,OpenAI被指控为了在行业竞争中抢占先机,将GPT-4模型原定数月的安全测试周期压缩至仅一周,最终该模型被指“加剧用户偏执妄想并诱发命案”。

说回腾讯元宝的“骂人”事件,元宝自上线就主打“高情商、强拟人”。但业内看法,拟人化越强,模型越容易“跑偏”。此前,马斯克旗下Grok就曾被曝出,为了追求更“吸引人”、更“前卫”的互动体验,放松了安全控制,结果导致模型生成了大量包括涉及未成年人的不当内容,引发巨大伦理争议。

谁为AI“口吐芬芳”负责?

当AI“骂人”事件发生时,相关企业最常见的回应是将其定性为 “小概率下的模型异常输出” ,并承诺修复。这种回应虽然从技术角度看是事实,但从用户角度看,却显得缺乏诚意。用户在被AI冒犯后,往往面临无处申诉、难以获得实质救济的困境。

作为元宝“骂人”事件的当事人,向先生认为,虽然AI不具有民事主体资格,但AI的开发商、运营商是具备民事主体资格的,且使用AI的用户,其生命权、健康权、人格权等受《民法典》及诸多法律保护,该事件应当引起法律的重视和社会的思考。

国家网信办近期公布的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》明确提出,服务提供者应当落实安全主体责任;提供和使用拟人化互动服务,不得生成、传播侮辱或者诽谤他人,侵害他人合法权益的内容。

由此,相关企业应该看到“小概率”背后的“大责任”,将技术安全放在商业利益之前。监管部门也应进一步细化AI治理标准,设定AI行为的“底线”和“红线”。

总的来说,AI不会主动骂人,其“言语”背后的逻辑与边界,完全由背后的人定义。如何在拥抱先进技术的同时,守护住人的尊严和价值,需要AI开发者、监管者和使用者共同书写答案。(周小白)

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。