当前位置: 首页 » 资讯 » 科技头条 » 正文

OpenAI炒作要熄火?Andrej Karpathy回应AGI还需10年观点:已经是最乐观最激进预测

IP属地 中国·北京 AI寒武纪 时间:2025-10-19 06:07:05


卡神Andrej Karpathy昨天与Dwarkesh Patel两小时的播客引发了AI圈的广泛关注,还没看的可以看我昨天的文章

节目播出后,Karpathy本人也重新观看了一遍,并发布了一篇长文作为补充说明。他首先为自己语速太快道歉,认为这有时会导致说话线程超越思考线程,没能把一些问题解释清楚,


卡神的确语速特别快,每次看他演讲都有这个感觉,哈哈

以下是Karpathy对自己核心观点的梳理与重申,涵盖了AGI时间线、LLM的本质、强化学习的未来、智能体的发展方向等多个热门话题

关于AGI时间线:10年已是非常激进的预测

Karpathy表示,关于AGI时间线的评论似乎是各路人马反响中最受关注的部分

他重申了“智能体十年”(decade of agents)的说法。他认为自己的AI时间线比你在旧金山AI派对或推特上看到的要悲观5到10倍,但相对于日益增多的AI怀疑论者来说,又仍然相当乐观

他解释了这种看似矛盾的观点:我们同时见证了1)近年来LLM带来的巨大进步,以及2)在拥有一个你宁愿雇佣它而非人类来完成世界上任意工作的实体之前,仍有大量工作要做

这些工作包括:繁重的体力活、集成工作、连接物理世界的传感器和执行器、社会层面的工作,以及安全保障工作,此外还有许多研究尚待完成。

因此,Karpathy总结道:“总的来说,10年应该算是AGI一个非常激进的时间线,只是在当前炒作的对比下才不那么觉得

动物 vs 幽灵:LLM是另一种智能实体

Karpathy对“存在一个单一的、简单的算法,把它放到世界上就能从头学会一切”的观点表示怀疑。如果有人能做出这样的东西,那将是AI领域最不可思议的突破,而他本人也将承认错误

在他看来,动物完全不是这种算法的例子——它们通过进化预装了大量智能,其后天学习的部分总体上相当有限(例如刚出生的斑马)

从工程角度出发,我们不会去重现进化。但通过LLM,我们偶然发现了一种替代方案来“预装”大量智能到神经网络中——不是通过进化,而是通过在互联网上进行“下一个词元预测”

这种方法在智能空间中催生了一种不同的实体,与动物截然不同,更像是“幽灵”或“灵魂”(ghosts or spirits)。但他认为,我们能够(也应该)随着时间的推移让它们更像动物,这也是许多前沿工作的方向

关于强化学习(RL):短期看空

Karpathy对强化学习(RL)提出了几点批评

首先,他认为RL获取监督信号的方式就像“通过一根吸管吮吸”(sucking supervision through a straw),信噪比非常差。

其次,RL的噪声很大。一个补全中可能有很多错误,但只要碰巧得到正确答案,这些错误就可能被鼓励;反之,一些充满洞见的词元也可能因为后续的失误而被抑制

虽然过程监督和LLM裁判(LLM judges)等方法也有各自的问题,但Karpathy相信我们会看到替代性的学习范式出现

他明确表示:长期看好“智能体交互”(agentic interaction),但短期看空“强化学习”

他认为近期一些论文已经走在正确的方向上,例如他称之为“系统提示学习”(system prompt learning)的思路,但从ArXiv上的想法到前沿LLM实验室能大规模通用部署的实现之间,还存在差距。不过他总体乐观,认为很快会有进展,并指出ChatGPT的记忆功能等就是新学习范式在部署上的早期雏形

认知核心:剥离记忆以提升泛化

Karpathy提到了他早先关于“认知核心”(cognitive core)的想法:即精简LLM,让它们更难记忆,甚至主动剥离它们的记忆,以使其更擅长泛化。

否则,模型会过度依赖它们已经记住的内容。相比之下,人类不那么容易记住东西,这现在看来更像是一个特性而非缺陷。这种记忆能力上的欠缺,或许本身就是一种正则化手段

这也与他之前关于“模型规模趋势是‘反向的’”,以及“模型必须先变大才能再变小”的观点相呼应。

关于LLM智能体:应与人协作,而非完全自主

Karpathy对当前行业的批评更多在于,工具的超前程度超过了模型当下的实际能力

他理想的中间世界是与LLM协作,让双方的优缺点互补。而业界似乎活在一个未来世界里:完全自主的实体并行协作编写所有代码,人类变得毫无用处

他举例说,他不需要一个智能体花20分钟带回1000行代码,更没准备好去监督一个由10个这种智能体组成的团队。他希望的是:

分块进行:每个代码块的大小能在他脑海中容纳

过程可解释:LLM能解释它正在写的代码

自我证明:LLM能向他证明自己所做的是正确的,比如拉取API文档来证明其用法无误

减少假设:在不确定时,能主动询问并与他协作

共同成长:他希望在协作中学习并成为更好的程序员,而不仅仅是接收一堆被告知能用的代码

他担心,如果工具不切实际,最终会导致软件行业中劣质代码堆积如山,漏洞、安全事件等也会随之增加

其他观点摘要

穿越到1989年的Yann LeCun:一个思想实验,探讨如果拥有33年后的算法知识,Yann LeCun当年的成果能提升多少,以此分析算法、数据和算力各自的限制作用

nanochat:他个人端到端实现的ChatGPT训练/推理流程的精简版

工作自动化:以放射科医生为例,他们现在做得很好。并探讨了哪些工作更容易被自动化及其原因

物理学的重要性:儿童早期教育应该学习物理,不是为了让他们成为物理学家,而是因为物理是最好地启动大脑的学科。他称物理学家为“知识领域的胚胎干细胞”(intellectual embryonic stem cell)

卡神的这些预测简直是在砸OpenAI的盘子啊,更是直接对Anthropic ceo Dario Amodei 贴脸开大,马斯克刚刚还在画饼grok 5有10%机会实现AGI

接下来就看Gemini 3 pro,看一些拿到内测资格网友前端测试非常强

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。