文 | 数字力场 佘宗明
你以为自己是不平,其实你只是钻进了别人精心设计的情绪陷阱;你以为自己是不忿,其实你只是吞下了别人专门投下的愤怒诱饵这层后真相时代的真相窗户纸,被牛津词典捅破了。
前不久,牛津词典团队公布了2025年牛津年度词汇:愤怒诱饵(rage bait)。
什么是愤怒诱饵?简单来说,就是故意用刺激性内容引发网民愤怒,借机获取流量。摆拍儿媳给住院婆婆吃泡面外卖骑手被顾客羞辱,皆在此列。
毫无疑问,愤怒诱饵现象值得警惕:当愤怒成为被批量生产的博流量工具,随之而来的是社会戾气的加重、舆论质地的劣化。
可从舆论反应看,部分人又顺着遇事不决,量子力学;归因无妨,信息茧房的流行总结归纳法,将箭头对准了算法,被顺带着提及的高频词还有信息茧房。
在他们看来,愤怒诱饵背后是算法捕网,是算法编织的信息茧房提供了传播温床,愤怒诱饵才会潜滋暗长。
这不免让人想起柏拉图的洞穴寓言:许多人错将墙上投影认成真实世界,却对真正光源视而不见。
01
索维尔曾说过:如果你认为人类总是理性的,那么,至少一般的历史是无法解释的。
为什么网络上会出现愤怒诱饵现象?原因也跟那三个字紧密相关:非理性。
神经学研究表明:大脑对坏刺激的反应比对好刺激更强烈,而且留下的痕迹更深,所以坏消息会让我们产生更多的注意力。社会学中的注意偏向理论也与此相通:跟中性刺激比,情绪性刺激更容易捕获个体注意力。
也就是说,当那些争议性话题出现在公众视野中时,用户会本能地投以更多关注。
正是看到了这点,那些流量捕手玩起了情绪操控把戏:他们通常会先选饵,识别争议性话题和冲突性元素(如性别对立、地域歧视、代际冲突、阶层差距等);再制饵,将极端标签、反差情节、失真细节等精心调配,糅在一块;接着下钩,通过标题党、伪造截图等手段,激起网民愤怒;最后收网,获取流量后,想法子变现。
《科学》杂志发表的论文。
结论是:信息茧房的形成并非算法所致,而是人类趋同避异社交本能的自然产物,即便没有算法,社交媒体也会存在极化现象。
这从社会心理学层面也能得到解释:人类的注意力分配和记忆编码机制,天生自带茧房倾向。确认偏误会让我们更关注我们愿意关注的信息,负面偏好会让我们对令人愤怒的事物记忆更深刻,可得性启发会让我们高估近期接触信息的重要性
算法给用户推送了100条内容,其中80条符合用户兴趣,15条是系统主动探索的多样性内容,5条是随机噪音,可用户大脑往往会选择性遗忘那95条,牢牢记住那几条让自己愤怒或惊喜的极端信息,这已成常态。
在《打破社交媒体棱镜》中,杜克大学教授克里斯贝尔还通过实验给出了另一个反直觉的结论:即便强制让人接触对立观点,也不会使其变得温和,反而会促使其强化自身立场,变得更加极端。
言下之意,在社交媒体上的认知封闭,本质上是人类本性在网络空间的延伸。与其说是算法在制造茧房,不如说是人类认知系统自身在编织滤网。
再来说第二个。
如果算法让人们看到的都是自己想看到的、听到的都是自己想听到的,那确实会筑茧。
但事实上,算法早已从单一的兴趣匹配进化为多目标优化体系,抖音算法推荐不仅会考虑用户喜欢什么,更会主动控制相似内容的出现间隔、频次上限,强制插入多样性内容,并通过随机推荐、社交关系兴趣拓展、搜索推荐联动等方式,帮助用户突破既有兴趣圈。
有意思的是,著名传播学者喻国明还认为,智能算法推荐具有反信息茧房的本质,采用多种算法的信息分发平台所具有的社会构造,从信息流动来说,总体上能够有效地避免‘茧房效应’的发生。换句话说,算法非但不会筑茧,还能破茧。
这并非没有依据。某平台此前公布的双塔召回模型,就是通过将用户和内容转化为高维空间的数学向量,实现脱离具体语义的精准匹配,发掘用户潜在兴趣领域,让用户刷到意料之外但又在情理之中的内容。
在著作《必然》里,凯文凯利曾提出理想的过滤器设想:它应该推荐那些我想知道我的朋友喜欢什么,而那又是我现在还不了解的,以及它将是一种会向我建议某些我现在不喜欢,但想尝试着喜欢的东西的信息流。
目前看,算法进化已经让这番畅想变为现实。
04
这倒不是说算法已经臻于至善了,只是说很多人对算法有许多因不解而生的恐惧、因误解而生的敌意。
怎么消除这些不解和误解?用算法透明化去祛除算法魔法化的想象,是应有之方。
多年来,堵在算法透明化面前的那堵高墙叫商业秘密,但今年以来,有个明显迹象是,很多中国互联网公司在主动拆墙。有平台就在构建起包含规则阐释、案例解析、互动答疑的多维沟通体系,让算法走出黑箱、走向透明。
这其实就是用算法祛魅来消除大众对不受控制的技术权力的担忧:当平台将如何通过多目标建模平衡短期互动与长期价值、如何设置多样性约束避免内容重复、如何引入探索因子突破兴趣固化等呈现在公众面前,算法的可理解本身就成了公共产品。
对算法污名化的最好阻击,就是将其置于可解释、可参与、可监督的透明化治理框架下。那样一来,用户会逐渐明白:算法不是独立的价值主体,而是人类行为的映射,不是神秘的巫术魔法,而是可被监督可改进的工具,它并不全能,也非万能。
循此看去,有两点渐次明了:1,将那些复杂的社会结构性问题简单归结为算法原罪,在自己作茧自缚后怪罪于算法织茧,都是选择性遮蔽下的归因偏差;2,很多时候,技术不是问题,放弃人的自主性才是。
拿愤怒诱饵现象来说,愤怒诱饵太多,算法没法背锅。不能因为算法不会说话,就让它客串窦娥、充当标靶。
算法确实还有很多不足,但解决之道不是打倒算法,而是让算法在阳光下运行,让公众理解算法原理,让平台承担起治理责任,让用户重掌信息主权。当人们更多地承认其局限、发挥其价值,那个被迷雾笼罩的人机共处未来才会愈发清晰。
这其中,我们掌握自己的信息主权很重要。纳萨尼尔霍索恩说过:你关注什么,最终你就成为什么。
将其换成另一个表述就是:每个人,都是自己接收信息情况的第一责任人。





京公网安备 11011402013531号