维基百科长期以来对生成式 AI 的“模糊态度”终于走到了终点。
3 月 27 日,据 OSCHINA 报道,维基百科发布了最新的政策变更声明,正式明确:禁止使用大语言模型(LLM)生成或重写文章内容。这一政策在维基百科庞大的志愿者编辑群体中获得了压倒性支持。
禁令升级:从“不建议”到“严厉禁止”
维基百科此次修订彻底终结了此前较为暧昧的表述:
核心冲突: 维基百科指出,由 LLM 生成的文本通常会违反网站的多项 核心内容政策,包括事实准确性及来源可靠性。
重写受限: 除了禁止从零开始生成条目外,利用 AI 对现有文章进行大规模重写也被列入禁区。
仅留微小“窗口”:AI 只能当辅助建议者
尽管发布了禁令,维基百科并未完全抹杀 AI 的工具属性,但对其使用场景设立了严苛的边界:
基础编辑建议: 编辑可以利用 LLM 对自己的文章提出 基本的编辑建议,但必须经过人工严格审阅。
严禁引入新内容: AI 仅能提供修辞或结构上的优化,绝不允许在采纳建议时引入模型自发生成的任何新事实或新观点。
翻译指引: 使用 LLM 辅助翻译条目时,必须严格遵循 维基百科 LLM 辅助翻译指南,确保译文精准。
处罚标准:风格不是唯一依据,内容才是核心
针对可能出现的误伤,维基百科也制定了审慎的评判标准:
警惕风格误判: 考虑到部分编辑的写作风格可能与 AI 相似,政策规定不能仅凭语言特征实施处罚。
综合判定: 处罚必须结合编辑近期的修改记录,并重点考察文本是否违反了核心内容政策。
社区共识:40 比 2 的压倒性票数
这项新政策的诞生并非闭门造车,而是源于编辑群体的民主投票。据相关统计,该政策以 40 票赞成、2 票反对 的结果获得通过。编辑们普遍担心,AI 生成的虚假信息和“幻觉”会侵蚀维基百科作为全球最可靠知识库的根基。
结语:捍卫人类编辑的尊严
在 AI 文本泛滥的今天,维基百科的选择更像是一场“知识净土”保卫战。通过将 AI 限制在辅助审阅的狭窄赛道内,维基百科试图在效率提升与学术严谨之间划清界限。当机器人饭碗在维基百科面前“碎成 404”,人类编辑的独立思考与核实能力,依然是维基百科最不可替代的资产





京公网安备 11011402013531号