当前位置: 首页 » 资讯 » 科技头条 » 正文

研究显示:低质数据可令 AI“大脑退化”,OpenAI 奥尔特曼担心的“死网论”正逐渐成真

IP属地 中国·北京 编辑:周伟 IT之家 时间:2025-10-22 22:13:27

IT之家 10 月 22 日消息,康奈尔大学最新研究指出,大语言模型(LLM)在长期接触低质量网络内容后可能出现类似“大脑退化”(brain rot)的现象,其理解力、推理力及伦理一致性均显著下降。

这一发现令业界再次聚焦“死网论”(Dead Internet Theory)—— 即网络因充斥机器生成或低质内容而逐渐失去人类创造力的假说。

AI 性能受“低质数据”影响显著

研究团队以 Meta 的 Llama 3 和阿里云 Qwen 2.5 为实验对象,通过构建不同质量比例的数据集,测量低质量内容对模型性能的影响。

结果显示,当模型仅以低质量内容进行训练时,其准确率从 74.9% 骤降至 57.2%,长文本理解能力从 84.4% 降至 52.3%。

研究人员还指出,这种“剂量 — 反应效应”(dose-response effect)意味着模型在持续接触低质数据后会出现逐步退化现象,不仅推理链条被简化甚至跳过,生成的回答也更表面化。此外,模型的伦理一致性下降,出现“人格漂移”(personality drift)倾向,更容易输出错误信息。

“死网论”引发科技圈担忧

近几个月,多位科技界人士公开表达了对“死网论”的担忧。Reddit 联合创始人 Alexis Ohanian 表示:“如今互联网上的很大一部分实际上已经‘死了’—— 无论是机器生成的、半 AI 的内容,还是充斥着低质量信息的社交平台。”他呼吁未来的社交网络应能“验证人类真实性”。

OpenAI 首席执行官 Sam Altman 也持类似观点,认为“死网论正在我们眼前发生”,并称现今多数 X(前 Twitter)账号已由 AI 接管运营。

网络内容质量危机正在加剧

亚马逊云科技(AWS)研究团队去年发布的报告指出,目前约有 57% 的网络内容是由人工智能生成或翻译的,这一趋势正影响搜索结果的质量与可靠性。

前 Twitter 首席执行官 Jack Dorsey 亦警告,由于图像生成、深度伪造(deepfake)与视频合成技术的普及,“我们将越来越难分辨真假”,用户必须通过亲身体验来验证信息真伪。

随着 AI 生成内容的快速扩散,互联网正面临内容质量与真实性的双重考验。业内专家提醒,如果人工智能模型与网络生态继续陷入低质量循环,所谓“死网论”终有一天会成为现实。

标签: 模型 低质量 死网论 内容 ai 首席执行官 人工智能 一致性 twitter 伦理

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。