2025年,堪称中国大语言模型的元年,这一年DeepSeek横空出世,很快在全球掀起风暴,甚至抢走了OpenAI的风头。
但是AI大范围应用后,有关AI技术的各种担忧也接踵而至:AI是否会抢走人们工作?大语言模型为什么存在偏见?为什么会编造事实?各国如何监管AI技术?未来是否会出现有意识的超级AI威胁人类?等等,这些都成为热烈讨论的话题。
观察者网远程连线美国四院院士特伦斯·谢诺夫斯基,与他讨论了上述问题。特伦斯是全球计算机神经科学领域的奠基人之一,也是人工智能研究的先驱。他在神经网络、机器学习等领域取得了诸多开创性成就,包括与图灵奖获得者杰弗里·辛顿共同发明了玻尔兹曼机——这是最早能够学习多层网络中复杂模式的算法之一,他二人被誉为“AI的莱特兄弟”。
面对一个文科背景的访问者,特伦斯用通俗的语言讲述了,为什么AI技术在经历了60年的研究后最近几年才突飞猛进,变得如此强大并广泛应用。他用科学家的激情和热忱,逐一打消了我们对于AI大语言模型“编造事实”、带有偏见、抢人类工作、甚至未来可能威胁人类的各种担忧。他还讲述了自己在1980年代和其他科学家一起挑战语言学权威和数学权威,将语言之间的联系用方程写出来,从而奠定了大语言模型基础的故事,并以此来鼓励年轻人,科学探索要不畏惧权威,“当专家告诉你某件事不可能时,不要听他们的。”
此外,针对各国纷纷出台的AI监管法案,他一再强调AI大语言模型还处在初级阶段,监管过早过细会影响科学发展。新技术只有被大规模使用,科学家们才能通过试错,发现解决问题的办法。以下是我们的对话实录。
![]()
观察者网连线特伦斯·谢诺夫斯基
OpenAI一夜成名背后,经历了60年的积累
观察者网:今年以来,随着DeepSeek等应用的普及,我们开始更频繁的使用AI工具。因此有关AI和大语言模型的问题的讨论很受大家关注,恰好您的新书《大语言模型:新一轮智能革命的核心驱动力》也讨论了这些问题。我的第一个问题是,您提到科学家们研究大语言模型(LLM)经历了三代人60年的努力,是什么根本性的转变使得这项技术突然变得如此强大和实用的?
特伦斯·谢诺夫斯基:首先,我认为需要回溯到20世纪80年代。那是神经网络被引入、机器学习领域发生革命的时期。传统的AI在上个世纪是基于逻辑的,也就是说,真或假,黑或白,当然,这也是数字计算机的工作方式。所以编写基于逻辑的程序在当时看来非常合理。但事实证明,这非常困难,比任何人想象的都要困难得多。
传统AI确实没有取得太大进展,直到1980年代,杰弗里·辛顿、我以及其他几位来自不同背景的人(例如杰弗里的背景是心理学和计算机科学,我的背景是神经科学和物理学)认为,一定有另一种方法。我们说,能够解决AI领域任何问题的唯一参考就是大自然。那么,让我们“打开引擎盖”看看大自然是如何做到的,于是我们开始研究大脑的架构。我所说的“架构”是指不同的组件是如何组合在一起的。
在芯片上,晶体管彼此靠近,但它们之间没有太多连接,它们是独立工作的。在大脑中,情况恰恰相反,它们之间是海量连接的。顺便说一下,关于数字芯片的关键一点是你必须明白,计算机程序中的指令是逐条按顺序执行和处理的。整个芯片需要一个时钟信号,滴答,滴答。然而,大脑没有时钟。相反,它有数十亿个被称为神经元的小处理单元,这些神经元彼此通信,一个单一的神经元可以与一万个其他神经元对话,有大规模并行的、海量的交互。这就是大脑的架构。
那么,如何为神经网络“编程”呢?如果你观察大脑,它并不是被编程过的,而是通过经验学习。婴儿来到世界,他们必须学习语言;然后去学校学习知识,再走向世界,学习各种知识。所以,我们当时所做的是开发所谓的学习算法。算法就像一份食谱,它告诉你如何将食材组合在一起,需要烘烤多久,你按照食谱的说明进行烹饪。而学习算法则给出了你需要遵循的指令,让这个大规模并行的架构能够接收感官输入和经验,并将其转化为知识。
这就是我们在1980年代所做的事情。我们找到了让神经网络做到这一点的方法。但当时的问题是,以今天的标准看,计算机非常原始。即使IBM最昂贵的计算机,其计算能力也低于现在的智能手表。按当时的标准,我们现在的智能手表实际上是一台非常强大的计算机。内存非常小,以兆字节计。
我们当时在这些原始的计算机上进行模拟,但显然我们受到很大限制。尽管我们有了学习算法,但我们当时不知道它的扩展性(scaling)会有多好。扩展性意味着,随着网络变得越来越大,它能解决更多困难的问题。我们当时用小问题演示了它应该能行,但我们直到现在才知道结果。这已经是40年后的事儿了。
![]()
被誉为"AI莱特兄弟"的特伦斯·谢诺夫斯基(左)和杰弗里·辛顿(右)
经过40年的研究,特别是我的合作者兼朋友杰弗里·辛顿,他确实为此问题努力了40年,试图扩大规模并解决越来越难的问题。
转折点大约出现在10年前,当时他和他的学生们能够解决一个在当时来说非常困难的视觉图像识别问题。换句话说,AI能够看着一张图片说,“嘿,那是座山”或“嘿,那是头大象”。这对我们来说似乎很容易,但事实证明并非如此,这在计算机视觉中是个非常困难的问题。后来,杰弗里在一个我协助组织的名为“神经信息处理系统大会”(NeurIPS)的会议上做了报告,这个会议如今是全球最大的AI会议。
这成了一个巨大的技术突破。大约三年前,OpenAI发布了ChatGPT。如你所知,它一夜间取得了巨大成功,这看似是一夜间的成功,但背后是40年的研究积累。所以现在我们知道了问题的答案:神经网络的扩展性好得惊人,难以置信。现在正在发生的是一场革命,AI正在对世界产生巨大影响。
大语言模型是“云端的大脑”,没有情感、没有长期记忆
观察者网:而且这项技术正在逐步改进,这很神奇。上个月Sora 2也发布了,标志着AI视频生成技术又前进了一步,令人惊叹。您在书中提到,大语言模型受人类大脑启发,但只模拟了大脑皮层称为编码功能的一小部分,就已经达到如此高的水平。这是否意味着大语言模型能够无限改进,甚至达到您在书中提到的可能对人类构成威胁的超级AI(Super AI)的程度?
特伦斯·谢诺夫斯基:好的,让我们退一步说。首先,这些大语言模型在整合知识的量上已经远超大脑。换句话说,人类非常擅长特定领域的学习,例如如果你是医生,你会非常擅长诊断疾病,但你不擅长法律,而律师擅长法律。也就是说,人类是专家型的。但ChatGPT的惊人之处在于它能回答任何问题,所以在这方面它已经超乎常人了。
但这并不意味着它要接管一切或其他什么。我认为,它只是一个更好的工具,是推动进步、提供帮助的更好方式。它确实是一种帮助人类提高生产力的方式,这正是它如今如此受欢迎的原因。因为它对你有帮助,我们都有同感。实际上,它仍然是一个需要学会如何使用的工具。你需要学习如何提问,学习如何与AI进行对话,那些能够最有效使用AI工具的人正是取得最大进步的人。
你刚刚提到了大脑,我是一名神经科学家,我研究大脑,我的专业是计算神经科学。这意味着什么?从事计算神经科学的人试图理解大脑是如何进行计算的。我刚才提到了神经网络,那是一个好例子。但大语言模型基于一种特殊的架构,这种架构是受人类大脑皮层启发的。大脑皮层是大脑表面的一层薄层,它非常重要,是我们知识的储存库。但大脑中还有数百个其他区域,这对人类的生存同样重要。ChatGPT在其他区域的能力并未被使用。它有点像云端的大脑,没有手臂和腿,没有眼睛,它所知道的只有词语,因为它是基于词语训练的。不过这种情况正在改变,现在新的网络也开始基于图像和电影进行训练。这只是过去几年取得进展的又一个例子。
![]()
AI生成的海边小屋
这确实令人惊叹。对我来说,比文字处理更令人惊讶的是,你只需输入几个词就能生成新的图像。比如我想要一幅美丽的场景,一栋能看到海景的漂亮房子……你可以描述你想要的,然后按一下按钮,你就得到了。这原本可能需要一位艺术家花费数天甚至数周才能创作出来,但AI可以几秒钟就做到,这太神奇了。现在AI还能生成电影片段,几乎与真实电影和真实演员真假难辨。
这简直是科幻变成了现实。三四十年前,我们是绝对预测不到这些的。大脑的其他区域对于在现实世界中的生存和自主性确实至关重要。例如,如果我们想制造机器人,就必须加入那些大脑区域的模拟,必须有感官信息输入以方便机器人移动,必须有长期记忆。目前的大语言模型,在对话结束后,什么都没有留下。它没有长期记忆,它不会终身学习。而人类总是在学习,也许不如在学校时学习那么高效,但我们仍然能学习新东西。这一点上ChatGPT是做不到的,它被预训练后就这样了,不会再学习新东西。
这只是其中一个例子,大语言模型还有其他缺失的部分。比如,人类拥有一个极其复杂的系统,我们称之为情绪,我们会快乐、悲伤、愤怒、厌恶等等。这些是人与人、人与世界互动时产生的情绪。而这些情绪对应的大脑部分在ChatGPT中完全缺失,它没有情绪相关的脑部分区。当然,ChatGPT认识“情绪”这个词,如果用户输入的内容显示出不安,它或许能识别出来,因为有很多小说描写人们不安的场景,它“知道”这些,但它自身无法拥有情绪。
“任何新技术都有被坏人利用的可能,AI不是特例”
观察者网:所以您作为科学家,并不相信那些科幻小说所描绘的未来——超级AI会对人类构成威胁?
特伦斯·谢诺夫斯基:不,危险是另一个层面的问题。所有新技术都既可用于好的目的,也能用于坏的目的。我举两个例子。
当上个世纪,核能被发现时,人们说,哇,这将为我们的未来提供巨大的能量。而且它是一种清洁能源,不会产生大量烟雾或任何对环境有害的东西。但是你也看到了,它也能被用来制造核武器。所以人类必须对这项技术的运用进行监管,必须防止它被坏人利用。当然,事情有时可能失控,但总体而言,我们已经设法遏制了那些可能发生的可怕用途。
还有生物技术。当我们发现如何操纵基因时,情况就很清楚了,我们不仅可以用它来帮助人类健康、治疗疾病,我们也可能制造出能够消灭人类的可怕病毒,导致生存威胁。但你知道,科学家制定了规则,规定了在什么条件下可以开发对我们有益的新基因和新病毒,并防止任何可能伤害我们的东西被释放出来。生物技术在医学上为人类带来了巨大益处,也创造了各种新设备和新药物,帮助人类拥有更好的生活。
现在,我们有了AI新技术,它也会不断往前发展。顺便说一句,我们非常不擅长想象未来可能发生的坏事。例如,我们不善于理解那些无人能预测的意外后果。这肯定会发生,但只有当科学家开发的这项技术能让人们大规模使用时,他们才能真正开始理解其影响。我们知道会有坏的影响,但首先必须理解这些坏影响是什么,然后才能像过去一样去防止这项技术被坏人利用。
这次没什么不同。250年前的工业革命到来之后,蒸汽机极大地增强了劳动生产力。现在,人类不用铲子去挖渠,而是可以操纵一台大机器去挖一个更大的渠。所以,几十年后,这个世界被彻底改变了:我们有了摩天大楼,有了能横穿整个国家的火车——在中国,你们有3000公里长的高速铁路,这不可思议。这些都是过去250年发展起来的技术。
而我们现在还正处在AI技术的开始阶段。就像最初的蒸汽机,顺便说一句,最早的蒸汽机会爆炸,因为人们不知道如何调节压力。后来它彻底改变了农业生产。在那个时代,地球上99%的人都在农场工作,因为我们需要食物。而现在在美国,只有2%的人口在农场工作。因为一个人就能用机器耕整片土地,不再需要人们用手工或者甚至用马来种植了。有趣的是,我们还用“马力“这个词来形容汽车动力性能有多强劲。
![]()
AI技术用于生物技术和药物研发,能大大减少实验时间,造福于人类
但我们仅仅处于AI技术的开端。即便是我们第一次接触这项技术,它已经极大地提升人类的认知能力和我们的思考能力,它已经在科学上产生了这种影响。例如,AI已经改变了生物学,这令人难以置信。你知道,现在我们有人工智能预测现有分子的功能,还可以设计创造新分子。这太不可思议了。以前这必须通过反复试验才能完成,现在我们可以用AI来做。AI用于科学领域的技术研发,其能力强大得令人难以置信,这为创新材料和药物研发打开了大门。最终,这将让每个公司、每个家庭受益。
制止AI偏见,科学家们正在努力
观察者网:您对AI技术的信心鼓舞了我们。我同意,每一新技术刚出现时,人们都会有这种担忧。下一个问题也是您在写书时提到的,我也经常遇到。我在使用ChatGPT的时候,会发现它有时会编造事实和来源。这种现象您称之为“幻觉”,为什么会发生这种情况?这是一个需要修复的技术缺陷,还是说这种虚构能力在特定情境下也可能是一种的创造力?
特伦斯·谢诺夫斯基:很好的问题。你说得完全正确。“幻觉”这个词通常指服药后开始看到不存在的东西,这是医学上的一个专业术语。人类确实也会这样做,会发生在正常人身上,也发生在大脑受损的人身上,这被称为“虚妄症”。
例如,酗酒的人,大量饮酒会损伤大脑,他们做的事情之一就是开始编故事,凭空捏造很多事情,而且他们自己并不知道,他们只是认为大脑告诉他们这事发生过,而实际上并没有。而你所说的“幻觉”,在技术上,我们称之为“虚构”。所以你看,人工智能反映了我们自己的缺点。
当我们要求AI帮助写论文或准备要发表的文字材料时,我们不希望出现这种情况。然而,如果你是个作家,你需要新的情节,需要创造性的时候,AI能编造新故事,这就很棒。所以你看,它可以被用于好或坏的方面,这取决于你的目标是什么。
另一个问题是,这些大语言模型经常会“偏离轨道”。意思是它们可能产生偏见,说些不好的话,比如种族主义言论或其他冒犯的话。我们有文化,有规则,人类需要遵守。因此,我们确实需要控制这些大语言模型。
人类从一出生就开始学习什么是好,什么是坏,出于本能不会做伤害自己的事,比如把手伸进火盆里。人类通过经验学到这点。然后,从父母、学校那里学习文化价值观。大脑中负责训练的部分,叫做基底神经节,它不仅仅是训练动作,还参与高级认知功能,如学习、记忆、情感和习惯养成。这是强化学习的结果,如果你做了好事,得到了父母的认可,比如他们会拍拍你的头,说你是好孩子,那就是积极强化,所以你以后还会这么做。但如果你做了坏事,你可能会挨打或被责骂,那感觉不好,你就学会了不该那样做。
![]()
作者认为,AI会说谎其实反映了人类的缺点;大语言模型技术还处在开端,未来会增加是非判断的功能
然而,大语言模型从未得到过任何这样的反馈。它们只被喂了大量的词语,这叫做预训练。最后,科学家会尝试做一些“微调”的工作,设置所谓的“护栏”来防止这些坏事发生,比如制止AI说不该说的话。但这已经有点晚了。
所以,再强调一次,我们仍然处在大语言模型技术的开端,正尽我们所能利用现有的技术。但在未来,这些大语言模型将会像养育孩子一样被培养起来,在整个过程中,会不断给予它们好与坏的反馈。这是当前AI所缺失、但未来将会被加入的功能之一。
过度依赖AI,不会削弱人类认知能力
观察者网:随着对AI功能的挖掘,引发我们很多思考。一些研究表明,重度依赖AI工具,可能会削弱我们深度思考或储存知识的能力。例如,作为一个长期英语学习者,过度依赖DeepSeek来翻译,可能会影响英语阅读和写作能力。这是AI改变我们的一个小小例子。作为精通神经科学和AI的专家,您认为长期依赖AI是否会逐渐削弱人类认知能力?
特伦斯·谢诺夫斯基:你指出的问题在过去也曾发生过。每当有新技术出现,人们总会担心我们会忘记如何使用旧技术,这在某种程度上是事实。
比如,当手持计算器在20世纪80年代开始普及时,每个人都说,天哪,人类将不会做算术了,因为你不再需要计算能力了,只需按下按钮就能得到答案。那么,这是否意味着我们不再教学生算术了呢?不,后来的学生们仍然像我们上学时一样学习如何加减乘除。这是为什么?因为事实证明,加减乘数是大脑能够思考数字、使用数字的基础概念、核心基础。这需要通过强化学习来打好基础——练习、练习、再练习。
再举个好例子。比方说打乒乓球吧,刚开始学的时候只是发球,但球打不过去,或者打飞了等等。但随着你练得越来越多,你的水平就越来越高。我的意思是,如何通过学习掌握一门技能?那就是强化学习。
![]()
作者认为,新技术出现后,人类不会放弃传统能力,比如计算器早就发明出来了,但是数学运算能力仍然还是一代一代传承
现在你知道问题所在了。不幸的是,这正在美国发生。有人主张,也许不需要练习,只要读一本关于乒乓球的书就行了,书里有图片教你怎么握拍等等。但是,书无法替代亲自练习。你必须进入现实世界,真正去打乒乓球才能提高打球技术。做算术也是一样的道理。你不能只按按钮,也不能只读书。你必须进入现实世界,思考数字,使用数字,哪怕只是为了估算。你要对数字有良好的感觉,这一点必须通过练习来获得。
所以,看,这就是你现在正在做的事情,你在练习英语,你在实践,这就是保持认知能力的方法。但顺便说一句,如果你停止练习,任何技能都会开始生疏。你必须持续使用才能维持这些技能。所以不用担心,使用AI不会让你失去语言能力,未来的人们也仍然需要用以前的方式来学习语言技能。
而且,你使用AI的方式恰恰是提高语言技能的正确途径。顺便说一下,很多英语是第二语言的科学家觉得写作非常困难。我的实验室里也有这样的人,他们年轻的时候除了在学校学英语,其余时间对外语接触不多。他们的英语还算不错,但写作时语法仍不太准确。英语是一门很难写的语言,也许没有中文那么难,但也相当困难。所以他们现在的做法是,写好论文后交给ChatGPT,说“请改进语法”。结果你看,效果很好。所以,这是一个极好的工具,可以将你自身的技能提升到更高的水平。
AI在某方面比你强,就会抢走你的工作,这是错误的看法
观察者网:下一个问题是关于工作的。人们很担忧, AI的到来会砸掉很多人的饭碗。特别是在中国,除了AI,还有机器人等技术,AI正开始逐步替代很多领域的工作,比如翻译,以及许多初级文职工作。您认为,人们应该如何为这种转变做准备?在这个AI成为常见工具的世界里,哪些新技能对人类取得成功最为重要,会成为人类最根本的、独一无二的特质?
特伦斯·谢诺夫斯基:我做公开演讲时,最常被问到的问题就是:我会失业吗?人们为什么害怕失业?因为他们从报纸上读到,AI来了,人们可能会失业。报纸上这么说是为了销量,所以他们要抛出能吸引眼球的东西。如果媒体上说,AI在某方面比你强,那你的工作就会消失,这是一种错误的看法。
顺便说一下,2018年,我在我的第一本书《深度学习:智能时代的核心驱动力量》(这本书有中文版)里就做过预测:你不会失去工作,但你的工作会发生变化;你需要学习新的技能,以便能够使用这些工具来提高你的工作表现;如果你不学习这些技能,你可能会失业。
如果你现在是成年人,你就需要自己去学习,这将极大地提高你的工作能力和生活质量。因为你可以从重复性的、繁琐的工作中解脱出来,腾出时间去做更有创造性的事情。这正是每个领域正在发生的。
在医学领域,医生使用AI来帮助他们诊断疾病,这比他们单独诊断的效果更好。律师现在能够在更短的时间内处理更多的案件,原本需要数周时间,现在按个按钮,当天就能得到结果。建筑师也一样,他们能更快地设计出房屋。这就是未来的方向。这将会改变一切。
我们再回到农业的例子。我说过以前99%的人在务农,他们现在去哪了?他们在工厂工作,在办公室工作。工业革命等一系列技术革命发生之后,新的工作岗位会被不断创造出来,这些是以前不存在的。将来的孩子们会以不同的方式工作学习,从事新创造的工作。
互联网就是一个很好的例子。想想现在所有的工作:网页设计师、互联网内容创作者(如播客)等等,之前都是没有的。举个更贴切的例子:过去,如果你想成为一名记者,你得去报社工作。现在不需要了,因为有社交媒体,有博客、播客等等。你可以作为一名“网红“过上很好的生活,可以在家工作,不用通勤。“网红“这个职业以前是不存在的,因为互联网改变了一切。
AI的到来也会发生同样的事情。它会改变一些东西,有些人可能会落后,通常是像我们这样的年长者。但年轻人会直接接纳它,他们没问题。他们会像学习任何新事物那样去学习AI。社会的进步就是这样发生的。
AI不是随机鹦鹉,如何应对“有主见”的AI,需要年轻一代的努力
观察者网:下一个问题是关于大模型的偏见,您之前也已经提到过,比如我搜索同一个中国政治类话题,DeepSeek中文版的内容比较正常,但是如果切换成英文搜索,或者用ChatGPT直接查英文时,其回复常常表现出与西方媒体叙事一致的观点,负面、带有偏见。您也曾警告过在全球地缘政治竞争背景下AI被武器化的风险,这是个非常及时且重要的提醒。我的问题是,如何来减轻AI系统中的这种政治和文化偏见?
特伦斯·谢诺夫斯基:这是个很好的问题,也是一个意外后果的例子。我们当初没有内置这方面的考量,但它出现了。
AI是如何变得有偏见的?因为它吸纳了人类所有的文本资料,而人类本身就是有偏见的,所以它吸收了所有这些偏见。现在我的问题是:我们想要扭转这些偏见,你觉得,是扭转人类的偏见容易,还是扭转大语言模型的偏见容易?哪个会更容易?
观察者网:大语言模型。
特伦斯·谢诺夫斯基:是的,说得对,就是这样。
观察者网:确实。对于人类来说,改变别人想法很难……
特伦斯·谢诺夫斯基:很难。没错,正是如此。所以,正如我前面所说,我们还处于起步阶段。我们会找出改变偏见的方法,而且这已经在发生了,所以不用担心。
还有另一点值得思考。人类非常有主见,我们都有各自的看法,真正的问题是,我们将如何应对那些同样“有主见”的大语言模型。我们人类在成长过程中面对的是前所未有的事物,这和文化有关。你在中国长大,与你在美国长大很不同,也与你在非洲某些地方长大不同。那么,哪种文化更好呢?
观察者网:不能说哪种更好。
特伦斯·谢诺夫斯基:说得对。所以,如果科学家用所有文化来训练大语言模型,AI模型要怎么判断你喜欢哪一种呢?实际上,大语言模型正在教给我们一些东西,一些我们应该吸取的教训,我认为这将帮助我们理解自身。
我举一个例子。目前专家们正在进行一场巨大的辩论,这些专家包括语言学家、研究大脑如何思考并产生新想法的认知科学家,还有心理学家,争议的焦点在于大语言模型是否理解语言。
![]()
作者反驳:AI不是随机鹦鹉。但是AI是否真的理解人类提出的问题,尚未定论。
很多语言学家说,不,它们只是“随机鹦鹉”。它们只是被灌输了所有这些词语,然后只是鹦鹉学舌般地回给你。但也有人说,等等,AI现在能够回答从没有人问过的新问题;所以,如果它能输出新的内容,那就不仅仅是鹦鹉学舌了;如果仅仅是鹦鹉学舌,不理解指令,怎么能回答我的问题呢?
所以,实际上,学者们无法下定论。如果专家们都无法确定这个问题的答案,这就告诉我们,人类自己并不理解“理解”是什么。确切地说,如果人类都无法达成一致,那就意味着我们使用这个词的方式有问题。不仅仅是“理解”,还有什么是“语言”?什么是“意识”?你知道,这些词在我们使用时含义不定,我们似乎知道它们的意思,但其中有细微差别和多维度的含义,很难精确界定。
这真正告诉我们的是,我们需要一门更好的语言科学。我这么说是什么意思?如果回溯到科学革命时期,大概是16到17世纪,甚至更早,人们对于投掷长矛时会发生什么,或者太阳上有什么,仅有一些直觉。当时的人们产生了各种理论,比如认为是一架马车驶过天空等等。如果他们掌握了某种语言,可以使用类比的方法,也就能带领人类的认知走出很远。但是,有一群人说,等等,让我们看看能不能做得更好,关于运动、投掷物体等等,让我们提出更精确的、更好的定义,这就诞生了物理学,这显然首先要归功于牛顿的工作, 这是一个内核,也是一个教训:如果人类想取得进步,就必须超越语言,必须有精确的定义,以及可以量化的词语之间的关系,比如做实验,写方程,这就是我们今天的处境。
科学变得更加精确,并且不仅仅基于某种直觉,而是基于能够区分不同理解方式的真实实验数据,建立起了一座巨大的大厦。通过物理学来“理解”这个世界,已经带我们走了很远。
而现在,我们需要在语言方面做同样的事情。我们需要发展一套真正的语言理论,要像物理学理论一样精确和强大,而这正在开始发生。原因在于,像大脑(本身是个谜)一样,我研究这些大语言模型,而它们本质上只是方程,非常复杂的方程,但我可以像物理学一样,把它们写下来。
我记得大概是在2018-2019年,应数学家们的邀请,我在国家科学院组织的一个会议上做演讲,我当时是这么对他们说的:我说,这些语言大模型能做的事情,似乎与数学家们一直告诉我们的东西相矛盾;在80年代我们刚开始研究大模型的时候,最好的数学家、统计学家、优化理论专家告诉我们,我们在做的事情很疯狂,永远行不通。因为他们更懂行,他们是专家。这些数学家非常聪明,但他们告诉我们这是不可能的。
但这并没有阻止我们。我们当时年轻气盛,就这么继续做下去了。所以,我告诉那些数学家,看,大语言模型的背后是方程。还有谁比数学家更懂得分析方程呢?先生们、女士们,你们会搞明白的。而事实也正是如此。这很神奇。现在,大语言模型变得非常强大,数学家们正在发现他们以前甚至无法想象的东西。
我给一点提示。我们生活在一个拥有三个空间维度和时间的世界里。所以维度数很低,是个很小的数字,三或四,我们生活在一种非常有限的环境中,但我们的大脑适应了它。我们的大脑非常擅长思考空间,我们生活其中,比如我们拿起杯子、处理我们所处的世界,这方面我们有很多经验。
但事实证明,这些大语言模型并不生活在三维空间里,它们生活在拥有数十亿、数万亿维度的空间里。我们无法想象那是什么样的,人类甚至无法想象六维空间,更别说十亿维了。但是数学家可以,因为他们可以发展关于这些高维空间的数学理论。
而这正是正在发生的事情。我们正在发现一个全新的、我们之前一无所知的宇宙。
它无比复杂,无比有趣,而且这是好事。它正在改变数学,催生新的数学、新概念、新思维方式,去理解大语言模型内部发生了什么。我们正在学习的东西绝对令人着迷。我不得不说,这是我从未预料到,甚至从未想象过的,但它正在开始发生。
![]()
语言学家诺姆·乔姆斯基,至今对大语言模型不买账
我给你最后一个例子。
在上个世纪,像诺姆·乔姆斯基这样的世界顶尖语言学专家认为,语言的特殊性在于有一种叫做“句法“的东西。什么是句法?就是语法。你在学校学过,不同的词有不同的角色,有名词、动词和形容词。所以它们组合在一起的顺序对于理解句子非常重要。他们基于句法建立了一个庞大的理论体系,但结果呢,我们现在知道他们完全搞错了方向。事实证明,“句法”当然也是语言的一部分,但那不是语言的关键;语言的关键叫做“语义”,它建立在句法之上,语义就是关于一个词的含义。我们现在有工具可以深入这些大语言模型内部,并且我们已经发现,有很多不同的线索可以用来判断一个词的意义,这就是上下文。
一个词可以有多种不同的意思,所以你必须从上下文中推断出它的具体含义,而这正是大语言模型所擅长的。它们非常擅长结合上下文审视这个词,以及在整个对话中你所用过的所有其他句子和词语的语境。它综合所有这些词语,来推断下一个词会是什么。我们已经深入其内部观察过了,我们发现句子的内部结构是基于语义的。在这个高维空间中,事物是根据意义的相似性聚集在一起的。而AI能回答新问题的唯一方式,就是AI能够理解这个问题。这就是我们学到的东西。
这几乎就说明了,上个世纪的语言专家们的理解偏差太大了。我认为,他们实际上阻碍了我们对语言的理解,因为他们过于专注于语言的某一个细小部分。我本人不是语言学家,所以我只能说,这真的很遗憾,因为当年那些大专家正是现在那些说“不,ChatGPT不理解语言”的人。
他们在否认,为什么?因为他们是既得利益者。他们建立了自己的声誉,曾被认为是语言学界最顶尖的人物。而现在我们已经表明,他们的理论是可疑的,他们不再是(最顶尖的)了,时代变了。抱歉,他们必须向前看。我们确实取得了重大突破。如果你不想承认,那也没关系,但我们会继续前进。
我想,我们这个访谈的听众有很大一部分是年轻人。他们不像我们这一代人,我们已经尽了最大努力。虽然我还在工作,但未来将由下一代、由年轻一代创造。我给你们的建议是,当专家告诉你某件事不可能时,不要听他们的。
因为肯定会有某个年轻人出现,并找出行得通的方法。这是我的经验,也是永恒的经验。创造革命、创造未来的总是年轻一代。马克斯·普朗克是量子理论的先驱之一。在上个世纪,物理学中的量子理论与相对论一起,是最重大的理论之一,它都是由二三十岁的年轻人创造的,就像我们当年研究神经网络一样。马克斯·普朗克年老时说了一句名言:物理学的进步是一次葬礼接一次葬礼地进行的。换句话说,是世代的更迭使进步成为可能。
![]()
量子力学奠基人马克斯·普朗克
如果我们处在一个固步自封的社会,它不是基于推动进步,而纯粹是想阻碍进步发生,那么就意味着你无法进步,事物会停滞不前。但幸运的是,人类在不断变化,因为我们有新人一代又一代人地出现,他们正在创造未来。所以,年轻人,未来是你们的。不要听我们这些“老古董“的话,我们在这里只是为了帮助你们。
政府对AI监管过细过早,不利于探索试错
观察者网:太棒了!我希望我们的年轻读者能听到您的话,这对他们很有帮助。最后一个问题。关于AI治理,目前像欧盟、美国和中国等不同国家和地区采取了不同的监管方法。您也倡导个体包容的全球化,以避免冷战式的AI竞赛。您认为这会导致全球技术格局碎片化吗?有哪些实际步骤可能促进国际合作?
特伦斯·谢诺夫斯基: 你知道,我们以前经历过这种情况,我们也会再次经历。我是全球最大规模人工智能会议之一的神经信息处理系统大会(NeurIPS)基金会的主席,今年12月,我们将有3万人在圣地亚哥参加这个会议。它从39年前的几百人起步,至今已有万人参加的规模。
我们对这些问题非常敏感。换句话说,我们不仅仅是生活在真空中制造机器的工程师和科学家,我们也是社会的一部分,我们和公众一样关注这些问题。不同之处在于,我们理解这项技术,并正在努力解决所有我们知道AI技术存在的问题。
而我们能够做到这一点的另一个条件是,我们必须能够不断探索和尝试新事物。如果政府限制说不能做这个,不能做那个,那我们就永远无法解决这些问题。因为很多进步都来自试错。所以我赞成自我监管,我认为我们能做到,我们的社群里有真正聪明的人可以帮我们做到这一点。
目前,我认为政府试图加以限制还为时过早。因为如果不进行探索,你无法真正理解什么是防止坏事发生的最佳方式。显然,一旦出现意外后果,你希望防止最坏的情况发生,而这已经开始发生了。
一个例子是,欧盟提出了一个长达100页的《人工智能法案》,里面充满了各种细节,比如,你不能用AI来评估求职简历。这很荒谬。就好像说,你不能用大模型来改善你的英语语法。这100页的法案,全是细枝末节,微观管理,你打算如何执行呢,这很荒谬,这是错误的做法。我认为我们能找到更好的方法。
不同国家会以不同方式处理,我认为中国做得相当不错。我刚好了解到,中国出台的规则比欧盟提出的要合理得多。美国目前治理机构陷入僵局,所以没有新规则出台。这也许是件好事,也许这就是为什么美国AI技术能够快速推进、能取得快速进展的原因。
我没有定论。每个人都有自己的看法,做任何事都没有所谓的最佳方式。我们只是在摸索,尽力而为。历史告诉我们,必须让事情随着时间逐步展开。只要决策者心里装着人类的最大利益,事情总会解决的。
观察者网:好!您对AI技术的信心令人鼓舞。感谢您用通俗的语言讲述这么复杂的问题,就像您说的,一切才刚刚开始,我们每个人都应该去尝试这项新技术,感谢您接受我们的采访!
![]()
![]()
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。





京公网安备 11011402013531号