当前位置: 首页 » 资讯 » 科技头条 » 正文

平台内容治理的破局之道

IP属地 中国·北京 经济观察报 时间:2025-11-15 02:06:46


宋玉茹/文

今年以来,中央网信办持续部署开展“清朗”系列专项行动,重点针对“自媒体”发布不实信息、短视频领域恶意营销、AI技术滥用乱象、恶意挑动负面情绪等乱象集中时间、集中力量进行打击。

专项行动剑指网络空间乱象,也让平台内容审查的责任边界问题愈发凸显。平台已成为信息传播、社交互动的核心载体,但电商平台与内容平台的责任逻辑差异显著,个人用户违规成本低、平台权责不对等、社会期待与治理能力落差等问题交织,都让审查工作陷入多重困境。

厘清责任归属、探索破局之道,既是落实“清朗”行动要求的关键,也是构建健康网络生态的必然之举。

责任主体难确认

在数字社会中,平台作为“看门人”,已成为信息获取与交流的核心渠道。但不同类型平台的责任归属存在显著差异,尤其在内容审查领域,需结合其运作逻辑明确第一责任主体。

近期,多家知名互联网平台因热搜榜单、推荐内容充斥虚假信息、煽动对立、情绪污染等违规内容而被依法约谈或查处。根据网信部门通报的处罚原因,小红书、微博、快手在热搜榜单主榜高位、频繁呈现大量炒作明星个人动态和琐事类词条,UC平台在热搜主榜“扎堆呈现极端敏感恶性案事件词条等非权威部门、权威媒体发布的信息”,今日头条则是“在热搜榜单主榜呈现不良信息内容,还在落地页面置顶呈现相关话题”。特别强调的是,内容平台的热搜榜单不该从反映民意热点,异化为放大明星八卦、恶性事件与不良信息的“推手”。

传统电商平台以商品交易为核心功能,形成消费者与商户的直接契约关系,平台主要承担交易撮合与保障职责。因此商品真实性、合规性及售后服务的第一责任主体是商户;平台负次要或协助责任,体现为合理审查与监管义务。监管路径清晰:优先追责商户,再核查平台是否尽责。平台角色更接近“市场管理者”,责任边界明确。

内容平台则呈现不同逻辑。其内容生产者是海量普通用户,行为属于个人表达,缺乏电商中清晰的商业契约约束。平台面对的并非可追溯的企业主体,而是分散、流动的个人用户,管控难度显著提高。

从组织经济学角度看,管控个体远比管控企业困难。

企业具备法人资格、治理结构与责任链条;个人用户则呈现分散化、碎片化特征,缺乏有效追责机制。电商平台商户数量通常在数万级别,而内容平台用户可达数亿。平台对商户可通过封店、保证金扣缴等方式形成强约束;对违规用户则主要依赖“封号”,但用户更换身份即可回归,违约成本极低。

契约理论进一步揭示差异:电商平台与商户之间通过服务协议、保证金等构成强约束性商业契约;内容平台与用户之间的协议则趋于形式化,在注册时点击“同意”即可发布内容,缺乏实际约束力与追溯机制。

此外,内容平台传播的是信息、情绪与价值观,具有强外部性。一条不实内容可能迅速扩散,影响公众舆论与社会情绪,这使得平台在公众期待中处于更高的责任关联位置。

然而,内容平台作为商业主体,其约束能力存在局限:既无执法权,也难以通过契约逐一约束海量用户。平台还需在“内容合规”与“用户体验”间寻求平衡,避免过度审查损害表达活力。因此,尽管平台成为内容合规最直接的责任关联方,其责任范畴与管控能力并不完全匹配。

现实困境愈发凸显

内容平台在现实中的处境并不轻松。

理论上,责任应由违规的个人用户承担;但在现实中,平台往往被推到风口浪尖。原因在于内容平台的运作逻辑与社会期待之间存在着深刻的张力,从而形成了平台内容审查的多重困境。

根据最高人民法院发布的《中国网络法治发展报告(2024年)》,2024年全国法院一审审结侵害信息网络传播权纠纷案件 12万余件,同比增长15.71%。根据中央网信办举报中心所披露的数据,2024年全国受理网络违法和不良信息举报2.27亿件。迄今为止,平台内容审查仍旧面临种种现实困境。

(一)信息洪流下的有限治理

内容平台的根本特点是以海量个体为节点,构成去中心化的传播网络。每天数以亿计的视频、图文、评论、弹幕在不同平台上被生成、分享和转发。信息像洪水般涌来,流速极快,流向极散。

平台想要事前把关几乎是不可能的。哪怕投入再强大的算法审核与人工审核,也难以在第一时间筛查掉所有违规内容。与之相比,电商平台面对的是有限的商品库和有限的商户群体。

但内容平台不同:内容本身是无穷无尽的,违规的可能性也多种多样,从色情低俗到虚假信息,从人身攻击到价值扭曲,几乎不可能预设出一个完全有效的过滤体系。

平台上的笔记分享就是典型例子。平台难以在海量笔记中瞬间分辨出哪些是过度修饰的虚假宣传,哪些是伪装成亲身经历的违禁药品推荐。即便投入巨资审核,仍像用一张有限的网去拦截整条河流,总会存在疏漏,从而使平台因个别内容而陷入公关与监管危机。信息治理在数量与复杂性上都超过了平台的承载能力,形成了先天的管理鸿沟。

(二)个体代价过低,责任稀释

治理难度的另一个关键点在于个体违规的成本极低。

对于一个商户而言,违规意味着罚款、下架,甚至企业声誉受损,这是一种高代价行为。但对于普通用户来说,被封号只是换一个手机号、重新注册的问题,付出的成本微乎其微。

这就导致一种逆向激励:违规的个人往往敢于冒险,甚至利用匿名和“马甲号”批量生产违规内容,平台在追责时却很难精准对应。“网暴马甲号”就是典型,一个用户被封,只需换个手机号就能瞬间“复活”,用近乎零成本的新账号继续违规,平台却要为此承担全部监管压力和品牌风险。“一对多”的治理格局使得责任被极大稀释,违规的代价和风险由平台集中承担。

(三)责任与权力的不对称

平台的困境还在于它被社会和舆论赋予了过高的责任,却没有与之匹配的权力。平台不是司法机关,没有强制取证、追责的权力。平台能做的只是删帖、封号、下架,这些措施在根本上难以解决问题。

当违规内容广泛传播后,公众往往第一时间要求“平台必须负责”,却忽略了平台并不能对用户进行实质性惩戒。责任与权力的不对称使平台成为“背锅者”。一方面,它被要求守好舆论大门;另一方面,它又无法拥有足够的执法工具。长此以往,平台被困在一种“高责任、弱手段”的悖论之中。

(四)审查过多与过少的两难

平台在审查尺度上陷入了进退维谷的处境:把关过严,可能引来用户不满,被指责“过度干预”,影响表达活力;把关过松又会被批评“纵容不良信息”,甚至受到监管问责。

这种“两难境地”让平台的审核机制经常摇摆。算法推荐一方面追求用户的停留时间和点击量,另一方面又可能推送出“擦边”甚至违规内容。人工审核则不可避免地受到价值观差异和主观判断的影响,难以形成绝对统一的标准。平台在尺度拿捏上的反复调整,本身就是困境的体现。

(五)社会期待与平台承受力的落差

更为复杂的是,社会对平台的期待往往超出了其技术与制度承受能力。

公众希望平台能够“即时发现、即时处理”,希望违规内容“不出现在首页,不进热搜”;但技术手段只能做到“尽量降低概率”,无法保证“绝对零风险”。

与此同时,平台一旦因违规内容上热搜,就会面临舆论批评、监管约谈,甚至股价波动。如直播领域的突发违规事件,平台始终面临技术响应与风险管控的双重困境。直播的实时性与互动性决定了内容生成具有不可回溯性,而海量直播间同时在线的特性,使得技术审核系统只能依赖关键词识别、画面帧分析等基础算法进行初步筛查,对于主播突发的不当言论、隐性违规行为(如隐晦煽动、变相虚假宣传),算法往往存在识别延迟甚至判断盲区。公众却普遍期待平台能“秒级拦截”所有问题内容,一旦某主播的失当言论通过审核漏洞传播扩散并引发热议,舆论便会立刻指责平台审核形同虚设或漠视风险。

平台高层常常选择“多一事不如少一事”,尽量“灭火式”处理,把大事化小、小事化了。但这只是把压力暂时转移,困境依然存在。对此,欧美国家或地区普遍采取“避风港原则”,以“技术中立”和“技术不能”为理论基础,认为平台和服务提供商对用户上传的违法内容不直接承担法律责任,而是在事后出现问题时适用“通知—删除”原则,即在收到违法违规内容的举报“通知”后做出“删除”处理。当然,鉴于平台内容违法违规事件攀升的严峻性,欧美政府也在加强对平台主动监管的要求。

期待破局之道

在现有条件下,如何找到一条兼顾效率与公平的治理路径?破局的关键不在于让平台承担“无限责任”,也不在于放任个人用户完全自由,而在于在信息社会的复杂网络中,寻找新的平衡机制。

(一)从“单点追责”到“分层责任”

现有模式下,平台成为几乎唯一的责任承担者,这显然不可持续。一个可行的方向是“分层责任”——即将责任在个人、平台、社会之间合理分配。

2024年生效的欧盟的《数字服务法》正是“分层责任”的典范,它依据平台规模和风险设定不同义务,让超大平台承担系统性治理责任,中小平台则履行基础性职责,从而打破了“平台负全责”的僵局。

其中,个人作为内容生产者,应该对其发布的言论、信息承担基础责任。平台则在技术层面、机制层面提供合理的过滤、提示和处理措施,但不应被要求对所有内容负全责。社会层面,行业协会、学术机构、媒体监督等也可以提供评价与纠偏机制。责任的多元化分担才能缓解平台的独角戏局面。

(二)提高个人行为的成本与可追溯性

要破局就必须提高违规行为的代价。这并不意味着引入过度惩罚,而是通过技术和制度设计,让个人的行为更具可追溯性。例如,实名制与匿名制的平衡可以进一步优化。对涉及公共传播的内容,平台可以通过算法识别用户活跃度、信用等级,并建立分级的权限体系。信用高的用户享有更多推荐机会,违规率高的用户则被限流甚至冻结。如此可以在不破坏整体匿名氛围的前提下,增加违规行为的成本。

(三)技术赋能与算法透明

当前,算法推荐往往以用户停留时间为首要目标,导致“劣币驱逐良币”现象。破局之道在于:算法不仅要优化用户体验,也要承担社会责任。

一方面,平台可以引入“多目标算法”,不仅关注点击率,还要平衡信息质量、多样性与公共价值。另一方面,算法的部分透明化也有助于提升社会信任。若用户能理解推荐逻辑,社会若能监督算法导向,平台就能避免“黑箱效应”带来的质疑。

(四)从“事后救火”到“前置预防”

当前的审查模式大多是“事后发现、事后处理”,这导致违规信息往往已经传播开来,平台再去下架、封号,已难以挽回。未来的治理方向,应当更多转向“前置预防”。

例如,利用自然语言处理和图像识别技术,对内容在发布前进行风险分级:低风险的自动通过,中风险的进入人工审核,高风险的限制发布。如此便可以在源头上减少违规内容扩散,显著降低大规模扩散的概率。

(五)构建健康的舆论生态

内容治理的破局不仅仅在于责任分配和技术优化,更在于塑造一个健康的舆论生态。平台不应只是消极防守的“删帖机器”,而应积极引导优质内容的生产与传播。通过激励原创、提升内容质量、扶持正向价值,平台才能让用户感受到“好内容更容易被看到”而非仅仅“坏内容会被删除”。

让平台从“背锅者”转型为“价值引导者”。治理的最终目标,不是让违规消失,而是让违规逐渐边缘化,让优质内容成为主流。

免责声明:本文观点仅代表作者本人,供参考、交流,不构成任何建议。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。