尽管当前的AI大模型在逻辑推理和任务处理上表现惊人,但一个长期被忽视的技术缺陷可能正成为通往通用人工智能(AGI)道路上的巨大障碍。近日,曾参与 OpenAI 推理模型 o1和 o3开发的核心研究员 Jerry Tworek 在受访时直言:目前的AI模型根本无法从错误中汲取教训。
Tworek 指出,当现有的AI模型在处理问题失败时,开发者往往会陷入一种无力感,因为目前还缺乏有效的机制让模型根据失败经验来更新其内在的知识体系或信念。他形容当前的AI训练过程本质上是“极其脆弱的”,一旦遇到训练模式之外的新挑战,模型就很容易陷入“推理崩溃”的困境,这与人类那种具备自我稳定和自我修复能力的鲁棒性学习方式形成了鲜明对比。
正是为了攻克这一难题,Tworek 已于近期离开 OpenAI,专注于寻找让AI能够自主解决困难、摆脱困境的技术路径。他强调,如果一个模型不能在面对挫折时自我进化,那么它就很难被称为真正的 AGI。在他看来,智能的本质应该像生命一样“总能找到出路”,而当前的AI显然还远未达到这种境界。
划重点:





京公网安备 11011402013531号