当前位置: 首页 » 资讯 » 科技头条 » 正文

预训练“卡壳”:SemiAnalysis 爆料 OpenAI 连续两年半未跑通新前沿大模型

IP属地 中国·北京 编辑:唐云泽 Chinaz 时间:2025-12-01 12:20:02

据 SemiAnalysis 最新报告,自2024年5月 GPT-4o 发布以来,OpenAI 尚未完成任何一次“面向下一代前沿模型”的大规模预训练部署,其顶尖团队多次尝试扩展参数与数据规模,均因收敛困难或性能倒挂而中途叫停。这导致被外界寄予厚望的 GPT-5系列实质上仍是 GPT-4o 的优化变体,未能实现架构级突破。

与此同时,谷歌 TPUv7已在 Gemini3等模型上完成大规模预训练验证,同等算力集群的总体拥有成本(TCO)比英伟达方案低约30%。SemiAnalysis 指出,OpenAI 甚至“尚未真正部署 TPU”,仅传出评估消息,就迫使英伟达在现有 GPU 集群报价上让步,为 OpenAI 节省约三成成本——侧面凸显 TPU 的性价比优势。

行业观点认为,预训练 Scaling 定律正遭遇数据、算力与模型配方三重瓶颈:优质互联网数据接近枯竭,合成数据成本高达1亿美元/1TB,十万卡集群故障频发,更大规模 MoE 的超参数亦难摸索。OpenAI 的停滞被视为整个赛道进入“后 Scaling 时代”的标志性信号,各家开始转向推理模型、自博弈 RL 与多模态后训练寻求增量突破。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。