![]()
新智元报道
编辑:倾倾
互联网上,越来越多的句子有一股「AI味」。风景永远惊艳,事件永远关键,语言被磨成光滑的模板。于是,Wikipedia在成千上万次巡查里最先察觉,并悄悄发起一场清理行动。
现在互联网上的句子,好像都是一个师傅教的。
风景总是breathtaking,建筑永远modern,随便一个事件都「标志着一个关键时刻」。
这些话听着完美,却轻得像飘在空中。读多了,人会感到恍惚。
Wikipedia的编辑们也受够了这种「广告腔」,开始了一场清理行动。
他们校对大量新增内容后发现,最爱说场面话的,竟然不是人,而是AI。
于是,一本奇怪又实用的《识别AI文风手册》,就在无数次删删改改里被写出来。
同一个模板写出来的互联网
互联网的语言越来越整齐划一,Wikipedia最早察觉到「味道不对」。
每天都有成千上万的新内容被塞进条目里,编辑们一边巡查一边发现:不少新增段落看起来顺滑,但读起来像是套话。
编辑们越看越觉得奇怪。等他们把这些可疑段落攒在一起,真相也浮出水面:
来源模糊、论据空洞、表达统一得异常。这一切都指向同一个可能——越来越多的内容,是AI生成的。
![]()
为了避免百科被这种空心句子掏空,一群志愿者在2023年发起了WikiProject AI Cleanup。
![]()
传送门:https://en.wikipedia.org/wiki/Wikipedia:WikiProject_AI_Cleanup
他们系统地记录这些异常写法,想弄清楚AI到底在什么地方露出痕迹,哪些句子看似正常,但经不起查证。
维基编辑最先发现「不对劲」
清理行动一开始,编辑们就发现:检测器根本不靠谱。
正管用的,是他们在多年巡查中练出来的「语感」
AI写出来的段落,表面都挺正常,但细看会有三种特别明显的痕迹。
第一种,反复强调「重要性」,却不给现实中的例子。
AI 生成的段落常常会把主题写得很宏大,比如「a pivotal moment」「a broader movement」。
但落到细节时,没有年份、不提来源,也没有可查证的材料。这种写法在百科语境里非常异常。
第二种,句尾挂着体面的现在分词
这种emphasizing… reflecting… highlighting… 的尾句,是目前最明显「AI痕迹」。
TechCrunch的作者也在报道中指出:
这类present participle是区分AI文风的关键线索之一
第三种,是频繁使用互联网式的「营销形容词」。 breathtaking、modern、renowned、scenic这些词在广告里正常,但在百科里使用很不恰当。
维基编辑碰到这种描述时,会立即查来源,结果常常找不到对应证据。
后来,这些规律都被整理进了《Signs of AI writing》。
![]()
https://en.wikipedia.org/wiki/Wikipedia%3ASigns_of_AI_writing?utm_source
比起技术指南,它更像一份经验册。记录着编辑们踩过的坑、看到的怪句式,方便更多人一起清理。
AI为什么总写成这样?真相在语料里
当编辑们把可疑句式整理出来后,一个问题也变得清晰了:AI之所以写成这样,根本原因是人类语料。
也就是说,它从哪里学来的语言,就会说出什么样的语言。
因为大型模型训练时吃的是整个互联网的语料。新闻稿、SEO软文、宣传册、社交平台的内容都会混在一起。
而这些地方最常见的表达,就是宏大但空泛、形容词夸张但没事实、评价多于证据的写法。
![]()
Wikipedia在把这类现象称为:Vague praise和Marketing language。
换句话说,AI不是故意用「公关腔」,而是这类语料最容易在互联网上抓取。
这也解释了为什么「重要性夸大」「-ing 尾巴」「广告式形容词」会频繁出现——这些是模型在大语料里看到得最多、最容易复制、也最缺乏上下文约束的句式。
![]()
Wikipedia的解决方式非常务实。他们知道无法杜绝AI生成内容,于是把重点放在「证据链」上。
他们要求注明来源、核查链接、追溯出处。
这一点在《WikiProject AI Cleanup》的流程说明里写得很清楚:
凡是出现评价性语言、缺乏具体事实,或看上去「像模型写的」,编辑可以先贴上「需要引用」的模板。
如果作者无法补充来源,这段内容就会被移动到讨论页,必要时进入快速删除程序。
这一整套流程相当于「免疫系统」:去掉评价形容词,让句子必须基于事实。
凡是经不起查证的部分,就会被自动拦截。这对于一个完全依赖可验证性运作的百科来说,百利无一害。
真实的句子有骨头,AI的句子一戳就空
维基编辑在清理中发现,最能一眼看出「AI味」的地方,是句子到底有没有「事实」。
AI喜欢用形容词和评价支撑文章结构,而百科写作靠的是年份、数量、地点、报道来源这种能查到的事实。
为了让更多编辑能看懂这种差别,《Signs of AI writing》里特地列出了多类典型句式。
看下面这一组改写,就能感受到两种语言的「骨骼」完全不同:
AI腔写法:
The conference was a pivotal moment, highlighting the continued relevance of the field.
这类句子在指南里被称作“Importance inflation + present participle tail”。
「关键」「持续重要」这些判断没有来源,尾巴的 highlighting… 属于典型AI的空转分词。
维基会写成:
The 2023 conference in X City drew about 1,200 attendees. Coverage in Y Newspaper and the Z Journal discussed A and B policy proposals.
年份、人数、媒体报道,全是可以查证的事实。评价不需要说,材料会自己说明事情的重要性。
再看另一个例子,也是编辑们最常遇到的那类广告腔:
The park offers breathtaking views and modern facilities, emphasizing its status as a renowned attraction.
指南把这种叫做「Vague praise / marketing tone」:breathtaking、modern、renowned这些词在广告里再合适不过,但在百科里毫无信息含量。
维基会写成:
The park has two viewing platforms and a 5-km walkway. It recorded about 450,000 visits in 2019 and completed accessible restroom and visitor-center upgrades in 2021.
不夸人、不定性,也不判断价值。只列设施、列年份、列客流量——所有内容都有来源可查。
在维基的世界里,没有来源的评价就是不存在的评价。
当越来越多内容由模型生成,我们读到的语言难免会被模板化的腔调包围。
Wikipedia的做法提醒我们,判断一段文字是否可靠,并不靠某种神奇的检测器,而是靠这句话能否查证、这个判断能否追溯、这条信息是否站得住。
AI也许会写出更流畅的句子,但百科在意的不是好看,而是可信。
当空心句被删掉、广告腔被滤掉、无出处的判断被请出页面,百科页面留下的,就只剩下事实本身。
互联网的未来,大概也会沿着这条路走下去——越是模型生成的时代,越需要人类替语言把关。
参考资料:
https://techcrunch.com/2025/11/20/the-best-guide-to-spotting-ai-writing-comes-from-wikipedia/
https://www.theverge.com/report/756810/wikipedia-ai-slop-policies-community-speedy-deletion?utm_source
秒追ASI
⭐点赞、转发、在看一键三连⭐
点亮星标,锁定新智元极速推送!





京公网安备 11011402013531号