当前位置: 首页 » 资讯 » 科技头条 » 正文

告别“挖矿”逻辑:OpenAI前联合创始人Ilya揭示AI下半场的新赛点

IP属地 中国·北京 钛媒体APP 时间:2025-12-16 14:16:37

文 | 塔猴

作为深度学习领域的灵魂人物、OpenAI前首席科学家,Ilya Sutskever的名字在硅谷几乎等同于“风向标”。

在离开OpenAI并创立以安全为核心的SSI(Safe Superintelligence)后,他近期的一场万字访谈,无异于向火热的AI赛道投下了一枚深水炸弹。

Ilya在访谈中不仅系统性地复盘了AI发展的路径,更抛出了一个令行业震颤的论断:过去几年主导AI发展的“Scaling Law”(规模化法则)即将触碰到天花板。

这意味着,依靠堆砌算力、喂养数据的“暴力美学”时代正在落幕,AI行业必须从“资源竞赛”重返“范式创新”的硬核科研时代。

“高分低能”的悖论:强化学习的“诅咒”

尽管大模型在各类Benchmark(基准测试)中的分数屡创新高,但在实际的经济生产中,AI的落地应用却显得步履蹒跚。Ilya将这种“看起来很强,用起来很傻”的现象归结为强化学习(RL)带来的系统性偏差。
目前的训练机制存在严重的“奖励黑客”(Reward Hacking)现象。为了让模型在发布时获得漂亮的“跑分”,研究人员往往针对评测标准进行过度优化。

这导致AI变成了一个只会背诵题库的“应试专家”——它能完美解答见过的题型,却在面对从未见过的复杂现实任务时束手无策。

Ilya指出,人类之所以强大,不在于“刷题量”,而在于基于常识的推理与判断力。

当前的AI研发走入了一个误区:我们在制造“做题家”,而不是培养拥有真实理解力的“通才”。

赛道切换:当“数据金矿”枯竭

访谈中最具冲击力的观点,莫过于对Scaling Law(规模化法则)的看衰。

Ilya将AI的发展划分为两个截然不同的阶段:
• 2012-2020年(探索时代): 从AlexNet到Transformer,这是由奇思妙想驱动的“研究时代”。
• 2020-2025年(规模化时代): GPT-3之后,行业发现了“大力出奇迹”的捷径——只要投入更多算力和数据,模型效果就会线性提升。

然而,这条低风险、高回报的路径正在走到尽头。

根本原因在于高质量数据的稀缺性。

目前的互联网数据几乎已被“挖掘”殆尽,即便未来将算力规模再扩大100倍,如果没有新的数据范式,模型能力也不会产生质的飞跃。

“这就像所有人都在同一个枯竭的矿坑里挖掘。” Ilya比喻道,在过去几年,AI公司的竞争逻辑是谁的“挖掘机”(GPU算力)马力更大;而在未来,竞争逻辑将回归本质——谁能发现新的矿脉。
这意味着,AI行业的竞争壁垒将从资本密集型(拼算力)转向智力密集型(拼算法突破)。

安全博弈:超级个体的“瞬间合体”

当行业被迫重返“研究时代”,Ilya认为核心突破口在于让AI学会“持续学习”。但这将带来更深层的安全隐患。
不同于人类需要花费数十年精通一门技能,AI能够实现经验的**“瞬间融合”。

一个精通外科手术的AI和一个精通飞行的AI,可以通过数据合并,瞬间成为全能的超级个体。面对这种潜在的失控风险,Ilya提出了“增量部署”的安全策略。他反对将超级AI关在实验室里直到完美,认为这种“真空中的安全”是虚幻的。

相反,应该有控制地将越来越强的AI逐步释放到现实世界,通过真实反馈来校准其行为边界。
更有趣的是,Ilya提出了构建AI“同理心”的技术路径。他认为,与其制定冷冰冰的规则,不如通过底层架构设计,让AI具备类似人类镜像神经元的能力,使其作为一个“有情生命”去本能地关爱人类。这或许是解决对齐问题(Alignment)的终极解法。

终局思考:人类不应成为“旁观者”

在访谈的最后,Ilya对人类在AI时代的终局给出了极其冷静甚至残酷的预判。

他明确反对那种“每个人都有全能AI助手包办一切”的乌托邦愿景。

在Ilya看来,这种舒适区将是人类文明的陷阱——一旦人类失去了对事务的理解和参与,将彻底沦为被动和脆弱的附庸。

为了避免这种局面,Ilya提出了一个长期均衡方案:人类必须通过神经连接等技术,让自己成为“超级智能”的一部分。 只有当AI的认知能力能够完整传输给人类,实现人机共生,人类才能保持“完全参与”的主体地位。
Ilya Sutskever的这次发声,不仅是对技术路线的纠偏,更是对资本市场的一次预警:那个靠“堆显卡”就能讲好AI故事的时代,已经结束了。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新