![]()
新智元报道
编辑:定慧
2025年就要结束,DeepMind华人研究员万字长文为我们揭秘了谷歌内部对于AI的预言:除了算力,其他一切都是杂音。
今天是2025年的最后一天了,很多人都在这一天进行AI回顾总结。
在经历一年的模型、算力、资本的新闻轰炸后,AI距离通用人工智能还有多远?
如果说2024年是人们对于AI的好奇之年,那么2025年就是AI深刻影响人类社会之年。
在这充满变数的一年里,我们听到了截然不同的声音:
Sam Altman在2025年中的博文《温和的奇点》中大胆预言:
「我们已经知道如何构建AGI,2026年我们将看到能够产生原创见解的系统。」他坚持认为,Scaling Law远未触及天花板,智能的成本将随着电力的自动化生产而趋近于零。
拓展阅读:奥特曼:温和奇点已降临!AI最终掌控物理世界,2030年人类命运大转折
![]()
NVIDIA的黄仁勋则将目光从「算力崇拜」转向了「AI工厂」。
他在2025年底的一次演讲中提到:
「AI的瓶颈不再是想象力,而是电力。未来的Scaling Law不仅是模型的堆叠,更是推理效率10万倍的飞跃。」
拓展阅读:英伟达AI工厂:人类历史酝酿12000年的绝对必然
![]()
相比之下,Meta的前首席科学家Yann LeCun依然嘴炮,他甚至在离职创办新公司前公开表示:
「LLM是通往 AGI 的死胡同,它没有世界模型,就像一个没有躯体的空中楼阁。」
拓展阅读:LeCun赌上后半生,押注大模型必死!Hassabis誓将Scaling进行到底
![]()
2026年,Scaling Law是否还能继续玩下去?
对于这个问题,一篇来自DeepMind华人研究员的万字长文在社交网络火了:
Scaling Law没死!算力依然就是正义,AGI才刚刚上路。
![]()
文章地址:https://zhengdongwang.com/2025/12/30/2025-letter.html
本文是Google DeepMind研究员Zhengdong Wang撰写的2025年度长信。
作者以独特的个人视角,回顾了从2015年至今AI领域的剧变,并深刻剖析了驱动这一切的核心动力——算力。
尽管外界对Scaling Laws存疑,但历史反复证明,随着算力的指数级增长,AI模型不断涌现出超越人类预期的能力。
作者结合自己在DeepMind的工作经历,验证了强化学习教父Richard S. Sutton「苦涩的教训」:
通用算力方法终将战胜人类的特定技巧。
![]()
这也是我们今年最大的感受!
除了算力,其他都是杂音
2025年12月30日,当回望这波澜壮阔的一年时,脑海中浮现的是十五年前那场由AlexNet开启的视觉革命。
那场辛顿、李飞飞、Ilya都参与的大会,或许就是如今AI时代的真正萌芽。
![]()
那时,大多数人认为人工智能仅仅是关于「特征工程」和「人类聪明才智」的博弈,而今天,我们已经进入了一个完全不同的维度:
一个由算力主导、由Scaling Law驱动、且AGI(通用人工智能)才刚刚踏上征途的纪元。
最近大家关注的焦点无外乎:Scaling Law是否已经撞墙?
算力的信仰:为什么Scaling Law从未失效
在2024年底,业内曾出现过一阵强烈的悲鸣,认为预训练数据的枯竭和边际收益的递减标志着Scaling Law的终结。
然而,站在2025年的终点,我们可以负责任地说:
Scaling Law不仅没死,它正在经历一场从「暴力堆参数」到「智能密度」的深刻演化。
十五年一遇的连续性
我们要理解Scaling Law,首先要看到它的历史韧性。
研究显示,过去十五年里,用于训练AI模型的算力每年以四到五倍的速度增长。
这种指数级的复合增长,在人类技术史上是罕见的。
在DeepMind内部观察到,模型在训练过程中所消耗的数学运算量,已经超过了可观测宇宙中的恒星数量。
这种增长并非盲目,而是建立在极其稳定的经验公式之上。
根据Kaplan和Hoffmann等人的实证研究,性能与算力之间存在着明确的幂律关系:性能提升与算力的0.35次方成正比。
![]()
文章地址:https://fourweekmba.com/ai-compute-scaling-the-50000x-explosion-2020-2025/
这意味着,每投入10倍的算力,大约能带来3倍的性能增益;而当我们跨越1000倍的算力鸿沟时,性能的提升将达到惊人的10倍量级。
定性跃迁与涌现能力
Scaling Law最迷人的一点在于,它不仅带来了定量的误差减少,更诱发了不可预测的定性跃迁。
在DeepMind的实验中,随着算力的增加,模型会突然展现出逻辑推理、复杂指令遵循以及事实性修正等「涌现能力」。
这种现象意味着,算力不仅仅是燃料,它本身就是一种能够催生智能的物理量。
2025年的真相是:我们已经从单纯的「预训练Scaling」转向了「全四个维度Scaling」:
预训练Scaling
通过海量多模态数据构建基础认知。
后训练Scaling
利用强化学习(RL)进行对齐和偏好优化。
推理时Scaling
即让模型在回答前「想得更久」。
上下文Scaling
通过超长记忆提升端到端任务能力。
在DeepMind亲历的「1000倍算力」瞬间
如果说Scaling Law是宏观的哲学,那么2021年Zhengdong Wang在DeepMind经历的那次实验,就是微观的启示录。
那次经历彻底重塑了Zhengdong Wang的「智能观」,也让Zhengdong Wang理解了为什么说「算力即正义」。
算法聪明才智的贬值
当时,DeepMind团队正在尝试解决具身智能(Embodied AI)在3D虚拟环境中的导航与交互问题。
那是典型的「硬核AI」挑战,涉及到复杂的强化学习算法优化。
当时的共识是:这个问题的瓶颈在于算法的精妙程度,在于我们如何设计更优的采样策略和奖励函数。
然而,一位同事提出了一个近乎「鲁莽」的方案:不要改算法,直接把算力投入增加一千倍。
在那次算力狂飙之后,奇迹发生了!
那些原本被认为需要突破性人类巧思才能解决的逻辑死角,在海量的矩阵乘法面前直接「融化」了。
算法并没有变聪明,但规模赋予了它一种类似于生物本能的鲁棒性。
算力之波的冲击
那一刻,Zhengdong Wang深刻体会到了理查德·萨顿(Richard Sutton)在《苦涩的教训》中所表达的真理:
人类在AI领域的所谓「巧思」,在算力的指数增长面前往往不值一提。
这种realization就像是一股巨大的「算力之波」从你身上碾过,让你意识到,与其苦思冥想如何优化那1%的算法效率,不如直接去拥抱那1000倍的算力扩张。
这种视角在2025年的今天已经成为了DeepMind内部的通用语:
我们不再问「这个问题能不能解」,而是问「这个问题需要多少算力才能解」。
正是这种心态,让我们敢于在数据中心投资上砸下远超阿波罗计划的重金。
基础设施的极限与挑战:1GW时代的到来
Zhengdong Wang还提供了额外的视角。
当DeepMind在内部讨论算力时,话题已经从「PFLOPS」转向了「GW」。
![]()
2025年,AI不再仅仅是代码,它是重工业,是土地、能源和定制硅基芯片的终极整合。
硬件的代际跨越:Blackwell与Ultra
这种终极整合,用一个词概括就是「AI工厂」,正是黄仁勋在GTC大会所提出的概念。
![]()
Wang认为,NVIDIA在2025年交付的Blackwell平台,是DeepMind能够维持Scaling Law信仰的物理基础。
GB200 NVL72系统将72颗GPU互联为一个单一的超级计算引擎,其万亿参数模型的推理速度比H100提升了30倍。
![]()
BlackwellUltra的推出更是将单芯片显存推向了288GB的极限,这意味着即使是300B以上的模型,也可以在不需要显存卸载的情况下完整驻留,这对于长上下文和高并发推理至关重要。
电力与散热的硬墙
然而,物理定律依然严苛。
单芯片功耗逼近1000W,让DeepMind不得不全面转向液冷方案。
2025年,开始谈论「AI工厂」而非「数据中心」。
谷歌的基础设施首席执行官Amin Vahdat在内部会议中明确指出,为了满足爆发式的算力需求,我们必须每六个月将算力能力翻倍,并在未来4-5年内实现1000倍的增长。
![]()
这种压力不仅体现在金钱上。
2025年上半年,AI数据中心投资占据了美国GDP增长的90%以上。
尽管外界担心泡沫,但DeepMind内部的视角是:
如果你能看到1000倍算力带来的智能红利,那么任何低于这个数字的投入都是一种风险。
具身智能的突破:SIMA 2与通用Agent的诞生
在DeepMind,始终认为AGI的终极形态不在对话框里,而在物理世界中。
2025年,SIMA 2项目展示了从「理解」到「行动」的跨越。
![]()
像素级交互与开放式学习
SIMA 2是一个通用的具身智能体,它不依赖于游戏内部的数据接口,而是像人类一样,通过观察像素和操作键盘鼠标在复杂的3D虚拟世界中行动。
这种设计确保了它所习得的技能——从基础的导航到复杂的工具使用——具有极强的泛化性,可以无缝迁移到完全不同的数字环境,甚至为未来的物理机器人提供大脑。
更重要的是,SIMA 2展示了「自我进化」的能力。
通过与Gemini基础模型的结合,它可以自主生成任务、自我设定奖励,并在没有任何人类标注的情况下,通过不断的尝试和错误习得新技能。
扩展阅读:我的王者荣耀有救了!谷歌发布游戏SIMA 2,不开外挂「像人一样」练级
![]()
METR时间跨度图:智能的量化加速
在评估进展时,作者最推崇的是METR的时间跨度图。
![]()
两年前,AI只能稳定完成人类耗时9分钟的任务;而到了2025年底,这个数字已经跃升到了4小时以上。
按照目前的Scaling趋势,到2028年,AI有望独立完成人类专家需要数周才能完成的科研或工程任务。
AGI才刚刚上路,正处于爆发的前夜
在结尾,Zhengdong Wang写道:「这就是我上车的地方——我们现在还极其早。」。
尽管2025年我们已经看到了能过IMO的金牌模型,看到了能自主在3D世界中生存的Agent,但在DeepMind的「Post-AGI」团队看来,这仅仅是序幕。
我们依然受困于1GW的电力瓶颈,受困于数据采集的效率,受困于推理成本的最后几美分。
AGI不是终点,而是起点!
DeepMind之所以成立Post-AGI团队,是因为预见到:
当AGI的门槛被跨过那一刻,人类社会真正需要面对的挑战才刚刚开始:
如何管理那些能够自主进化、且由于算力规模而产生「不可解释性」的智能体?
在一个智能成本趋近于零的世界里,人类的独特价值如何重构?
当AI开始主导科学研发的循环,人类文明的知识边界将以何种速度扩张?
![]()
2025年的真相是,Scaling Law不仅是通往AGI的路径,它本身就是一种重塑物理世界的哲学。
那些还在争论泡沫的人,或许还没意识到,这股由1000倍算力卷起的风暴,已经将人类送往了一个再也回不去的纪元。
对于AI的拥趸,所有人正满怀敬畏地看着那列名为「智能」的火车加速驶向远方。
我们并非在等待奇迹,我们正在亲手塑造它。
AGI,才刚刚上路。
参考资料:
https://zhengdongwang.com/2025/12/30/2025-letter.html
秒追ASI
⭐点赞、转发、在看一键三连⭐
点亮星标,锁定新智元极速推送!
![]()





京公网安备 11011402013531号