![]()
(MIT TR)
近年来,通用人工智能(AGI)被赋予近乎神话的力量:有人坚信它将治愈疾病、拯救地球、开启人类的富足时代;也有人警告它会带来终极灾难、终结人类文明。无论是乌托邦还是末日论,AGI 已成为当下主流叙事之一。它尚未发生,却主导了资本流向、科技政策与公众想象。
但当我们剥开这层层叙事,不禁要问:我们狂热追随的,究竟是一项确凿的技术未来,还是一场精心编织的现代神话?越来越多迹象表明,围绕 AGI 的集体狂热,已展现出类似阴谋论的特征——一个我们时代最“高级”的阴谋论。
![]()
硅谷是如何被 AGI “洗脑”的
早在 2007 年,人工智能还远没有今天这么光鲜。亚马逊和 Netflix 那时已经涉足了机器学习,但也只是用它来推荐书籍和电影,仅此而已。
不过本·戈策尔(Ben Goertzel)并不满足于此,他怀揣着更大的梦想。大约十年前,这位人工智能研究者创立了名为“Webmind”的互联网初创公司,试图在早期网络环境中培育他所构想的“数字婴儿大脑”。但由于缺乏资金支持,公司很快宣告破产。
戈策尔是一个小众科技圈的核心人物,这个圈子的研究者一直梦想着创造出能像人类一样思考甚至做得更好的智能。只是,他还需要一个响亮的名字把它和略显平庸的人工智能进行区分。
当时 Webmind 的员工谢恩·莱格提出了“AGI”(Artificial General Intelligence,通用人工智能) 这一名字。听起来有些遥不可及,但不失准确。戈策尔决定,就是它了。
几年后,莱格(Legg)与德米斯·哈萨比斯(Demis Hassabis)和穆斯塔法·苏莱曼(Mustafa Suleyman)共同创立了 DeepMind, 同样扎根 AGI 领域。
但在当时大多数严肃的研究者眼中,人工智能终将模仿人类能力的论断不过是个笑话。那么究竟发生了什么?AGI 如何在十几年内从荒诞不经演变为众所周知?
上个月我采访了戈策尔,向他提出了我的疑问。他说:“我算是研究复杂混沌系统的人,所以对自身能真正理解记忆空间中非线性动态的认知持保守态度。”(简单翻译:事情很复杂,我不好说。)
戈策尔认为有几个因素帮助推广了这一理念。
首先是 AGI 会议——该会议常与顶尖主流学术集会同步举办,例如促进科学进步协会的年会、人工智能会议和国际人工智能联合会议。
"如果我只是出版了一本名为《AGI》的书,它可能就会悄无声息地消失,”戈策尔表示,“但会议每年都在巡回举办,吸引着越来越多的学生参与。”
"其次要感谢莱格,他将这个 AGI 术语带到了 DeepMind。我认为他们是第一个在当时主流企业界讨论 AGI 的公司。虽然这并非他们反复强调的核心议题,但这无疑为该领域提供了合法性依据。”
"五年前我首次与莱格讨论 AGI 时,他坦言, 2000 年代初谈论 AGI 会被视为疯子……即便 2010 年创立 DeepMind 时,我们在会议上仍遭遇大量白眼。但到 2020 年风向已变。虽然仍有部分人对此感到不安,但它正逐渐走出冷宫。”
戈策尔指出的第三点是早期 AGI 宣扬者与科技巨头权力经纪人之间的交集。戈策尔曾与 Paypal 创始人彼得·蒂尔(Peter Thiel) 有过合作。“我们聊了很多,”戈策尔回忆道。他记得有天在旧金山四季酒店与蒂尔共处一整天。“我试图拼命向他灌输 AGI 理念。”
那时的戈策尔还不知道,他不是“孤军奋战”。还有另一个人正在和他一起推动 AGI 这股浪潮前进。
![]()
末日论者登场
这个人就是埃利泽·尤德科夫斯基(Eliezer Yudkowsky),他在推动 AGI 理念方面所做的贡献至少不亚于戈策尔,甚至可能更为突出。但与戈策尔对 AGI 的乐观幻想不同,尤德科夫斯基认为 AGI 只会带领人类走向灭顶之灾
起初,尤德科夫斯基的观点并未引起广泛关注。要知道,当时的人工智能,都还只是纯粹的科幻概念。直到 2014 年,牛津大学哲学家尼克·博斯特罗姆(Nick Bostrom)出版了《Superintelligence》(超级智能)一书,让 AGI 的概念真正广为人知。
比尔·盖茨、埃隆·马斯克等众多科技界人工智能从业者都读过此书,并且受其影响。无论是否认同他悲观的末日论,尼克确实将埃利泽的理念以极具说服力的方式系统化地呈现了出来。
“所有这些都让 AGI 获得了宣传,”戈策尔补充道,“它不再是一个虚无缥缈或者荒诞的概念。”
![]()
(MIT TR)
如今,尤德科夫斯基的观点比以往任何时候都更受欢迎。这吸引了像蒙特利尔大学研究员大卫·克鲁格(David Krueger)这样的年轻末日论者。
“我认为我们正稳步走向制造出杀光所有人的超人类 AI 系统,”克鲁格认为,“我们必须立即叫停。”
媒体们也开始争相报道,尤德科夫斯基甚至被纽约时报冠以“硅谷版末日传教士”的称号。
他抓住热度,与机器智能研究所所长内特·索雷斯合著的新书《If Anyone Builds It, Everyone Dies》,提出了一系列缺乏证据支撑的惊人论断:近未来的 AGI 将引发全球末日浩劫。
二人的立场十分极端:他们主张应不惜一切代价实施国际禁令,必要时甚至可诉诸核武器报复。毕竟,尤德科夫斯基和索阿雷斯写道:“数据中心造成的死亡人数可能超过核武器。”
该书一经推出,就登上了《纽约时报》畅销书榜,并获得多位权威人士的推荐,包括美国诸多政客、科学家与社会名流, AGI 开始引发巨大的社会关注, 资本、政策开始纷纷押注。
2023 年,OpenAI 首席执行官山姆·奥特曼(Sam Altman) 在 X 平台发布:“在我看来,埃利泽为加速 AGI 发展所做的贡献远超任何人。毫无疑问,正是他让许多人对 AGI 产生了兴趣。”尤德科夫斯基或许有朝一日会因此获得诺贝尔和平奖,奥特曼补充道。
这一切所带来的影响,似乎与尤德科夫斯基的想法背道而驰。但不管他接受与否,AGI 已经悄然渗透主流并牢牢扎根。
![]()
但 AGI 是什么?没人知道
1945 年,第一台电子计算机 ENIAC 问世仅五年后,艾伦·图灵(Alan Turing)就提出了那个著名的问题:“机器能思考吗?”不久后的 1951 年,他在一次广播节目中说得更直白:“一旦机器学会思考,它们很快会超越我们有限的能力。机器不会死,还能相互交流、不断进化。所以总有一天,我们得准备好把控制权交给它们。”
十年后的 1955 年,计算机科学家约翰·麦卡锡(John McCarthy)和同事向美国政府申请资金,打算开展一个他们颇具远见地命名为“人工智能”的项目。
这个命名在当时看来近乎天方夜谭——毕竟那时的计算机还像房间一样笨重,功能却和恒温器差不多。但麦卡锡在申请书中写道:“我们将探索如何让机器使用语言、形成抽象概念、解决如今只有人能解决的问题,并实现自我进化。”
正是这些早期预言,埋下了今天 AGI 神话的种子。所谓比人更聪明、无所不能的机器,与其说是技术目标,不如说更像一种脱离现实的幻想。
因为尽管投入巨资、争论不休,没有人真知道该怎么造出 AGI。
更麻烦的是,大多数人连它到底是什么都没共识——这也解释了为什么有人能一边说它会拯救世界,一边又说它将毁灭人类,却没人觉得矛盾。
大多数定义的核心都绕着同一个理念:机器能在广泛的认知任务中达到人类水平。但这个定义本身也站不住脚:指的是哪些人类?哪些认知任务?“广泛”实际有多广?
“它根本没有准确定义,”美国橡树岭国家实验室前计算机部门负责人克里斯托弗·西蒙斯(Christopher Simmons)指出,“如果说以人类水平为基准——智能本身就有无数种可能,每个人的智能都各不相同。”
西蒙斯认为,我们因此陷入一场奇怪的竞赛:到底要造个什么东西?“你究竟想让它干什么?”
2023 年,谷歌 DeepMind 团队(包括参与命名的莱格)曾尝试梳理 AGI 的各种定义。有人认为它必须能学习;有人强调它得创造经济价值;还有人坚持它得有物理身体,能在现实世界活动(比如冲咖啡)。
莱格告诉我,当年他向戈策尔提议用这个词作书名时,模糊性正是关键。“我当时没有特别清晰的定义,也觉得没必要下定义,”他说,“其实——它不像一个具体的东西,更像一个研究领域。”
所以,等它真出现了我们自然就知道?问题是,有些人认为 AGI 已经降临。
2023 年,微软研究团队发表论文,描述了他们对 OpenAI 大型语言模型 GPT-4 预发布版本的测试体验。该团队称其为“AGI 的火花”——这一论断在业界引发了激烈争议。当时,许多研究者为之震撼,纷纷试图用现有理论框架解释所观察到的现象。
“这东西的表现比我们预想的还要好,”戈策尔表示,“AGI 似乎不再那么遥不可及。”尽管如此,戈策尔仍然认为,大语言模型虽展现出卓越的文本处理能力,但并未真正触及通用智能的核心。
“让我有些意外的是,一些对这类工具底层机制有深刻理解的技术专家,依然相信它们有可能发展为人类水平的 AGI,”他说,“但另一方面,你确实无法完全否定这种可能性。”
事实正是如此:你无法证明它不可能实现。所有人也都在猜测它实现的时间,5年?10年?25年?没人知道。
这像极了阴谋论。因为关于 AGI 何时到来的预测,准确度堪比占星师预言世界末日。这类预测无需承担实际后果,借口总在刷新,时间线不断重设。
今年夏天万众期待的 GPT-5 ,就是最好的例子。
然而,这并没有被看作是 AGI 无法实现的证据——信徒们只是不断推迟他们的预测。它总会到来的——只不过,你知道的,永远都是“下一次”。
![]()
信则有,不信则无
每当我与那些研究人员或工程师交谈时,他们总是不经意地将 AGI 当作一个既定事实来谈论,仿佛他们掌握着某种我所不知道的奥秘。可始终没有人能真正告诉我,那奥秘究竟是什么。
真相就在那里,只是你需要知道该往哪里寻找。杰里米·科恩(Jeremy Cohen)曾告诉我,阴谋论的核心在于“揭露隐藏的真相”:“这确实是阴谋论思维的基本特征,而我们在人们讨论 AGI 时,也能清晰地看到这种特质。”
去年,23 岁的前 OpenAI 员工、现任投资者利奥波德·阿申布伦纳(Leopold Aschenbrenner)发表了一篇引发广泛关注的 165 页宣言,题为《Situational Awareness》(情境感知)。
你甚至无需通读全文就能抓住其核心思想:你要么看清即将到来的真相,要么永远停留在蒙昧之中。
这种认知甚至不需要冰冷的事实支撑——直觉上的感知便已足够。而那些尚未“觉醒”的人,不过是因为还没有领悟到其中的真谛。
类似的观点也隐隐贯穿在我与戈策尔的对话中。当我问他,为什么有人会对 AGI 持怀疑态度时,他这样回答:“历史上每一次重大的技术突破——从人类飞行到电力的普及——总有许多聪明的评论家断言那是不可能的。事实是,大多数人只愿意相信他们已经亲眼所见的东西。”
这使得 AGI 听起来更像是一种信仰。我把这个看法告诉了坚信 AGI 可能在五年内到来的 AI 研究者大卫·克鲁格。他不以为然地表示:“我认为这完全搞反了。”
在他看来,真正的“信仰”其实是坚信 AGI 不会实现——那些至今仍在否认“显而易见”事实的怀疑者,才是真正执迷不悟的人。
隐秘的真相吸引着那些自认的“真理追寻者”,他们执着于揭示那些他们认为一直存在、只是未被看见的事物。然而,对于 AGI 而言,仅仅“揭示”是远远不够的。它还需要一场前所未有的创造行为,而这也是它如此有吸引力的一个重要原因。
“那种认为自己正在孕育‘机器之神’的念头,显然极大地满足了某些人的自我,”香农·瓦洛尔指出,“想象自己正在为这种超越性的存在奠定最初的基础——这种想法具有一种难以抗拒的诱惑力。”
这与阴谋论思维产生了另一种重叠。人们在一个看似混乱而无意义的世界中,对自身存在价值的渴求——渴望成为那个至关重要、能够改变一切的人物。
克鲁格在伯克利从事研究,他表示自己认识一些从事人工智能工作的人,他们将这些技术视为人类自然而然的继承者。“他们看待这些技术,几乎就像看待自己的孩子一样,”他说,“顺便提一句:这些人通常没有孩子。”
![]()
一个新的精神乌托邦
杰里米·科恩(Jeremy Cohen)发现,许多现代阴谋论与新纪元运动(New Age movement)之间存在相似性——后者在 1970 至 80 年代达到顶峰。
该运动的信徒坚信,人类正站在一个全新精神福祉时代的门槛上,认为意识扩展将引领世界进入更和平、更繁荣的阶段。简单来说,其核心信念是:通过一系列带有伪宗教性质的实践——例如占星术、精心挑选水晶等——人类能够超越自身的局限,进入某种“嬉皮士式”的乌托邦。
当今的科技产业虽然建立在计算与算法之上,而非水晶或星座,但其对某些根本命题的认知却呈现出相似的神秘学色彩。“你知道,那种关于彻底变革的想象——仿佛我们将迎来某种千禧年式的转折,最终步入技术乌托邦的未来,”科恩指出,“而 AGI 终将帮助人类克服一切困境的信念,恰恰是这种核心想象的体现。”
在不少人的印象中,AGI 的到来将是突然的。人工智能的渐进发展会不断累积,直至某一天,其能力强大到足以自主创造出更强大的人工智能。到那时——它将以惊人的速度演进,通过所谓的“智能爆炸”实现 AGI 的突破,最终抵达一个不可逆转的临界点,即“奇点”。这个在 AGI 圈子流传多年的特殊术语,至今仍被广泛使用。
科幻作家弗诺·文奇(Vernor Vinge)最早借用了物理学中的“奇点”概念来描述技术发展的这一理论阈值。早在 1980 年代,他就提出在技术进步的路径上存在一个“事件视界”——一旦越过这个界限,人类将被自己创造的、以指数速度自我进化的机器迅速超越。
香农·瓦洛尔认为,这种信仰体系最显著的特征在于:对技术的信仰已经取代了对人类自身的信仰。她指出,尽管新世纪运动的思想带有玄学色彩,但其中至少还保留着一种信念——人类只要能够激发自身潜能,就足以改变世界。然而,在追求 AGI 的过程中,我们正在抛弃这种对“人”的信念,转而接受“唯有技术才能拯救人类”的观念。
对许多人来说,这种想法极具吸引力,甚至令人感到安心。“我们正处在一个时代,人类生活与社会物质进步的其他途径似乎已经穷尽。”
技术曾被视为通往美好未来的阶梯——稳步引领人类走向社会繁荣。但瓦洛尔指出:“我们已经越过了那个顶峰。如今在我看来,能让许多人重燃希望、重拾对未来乐观态度的,似乎只剩下 AGI。”
她进一步表示,如果将这种逻辑推向极致,AGI 最终可能被塑造成某种“神明”——一个被认为能够为世间一切苦难带来终极解脱的存在。
北卡罗来纳大学的社会学家凯莉·乔伊斯(Kelly Joyce)主要研究文化、政治和经济信念如何影响人们对技术的理解与使用。在她看来,所有关于 AGI 的狂热预言,其实都不过是科技行业长期存在的“过度承诺模式”的又一次体现。她说:“有趣的是,我们每次都深陷其中。人们似乎总是坚信技术优于人类。”
乔伊斯认为,这正是为什么每当炒作兴起时,人们总是倾向于相信它。“这就像一种宗教,”她说,“我们信仰技术。技术就是我们的上帝。要抗拒这种观念非常困难——因为人们根本不想听到别的说法。”
![]()
(MIT TR)
![]()
最终幻想背后的代价
“计算机终将能完成人类所有任务”这一幻想无疑极具诱惑力。但正如许多广为流传的阴谋论那样,这种幻想正带来真实而沉重的后果。
它扭曲了我们对当前技术繁荣(及其潜在衰退)背后真实代价的认知,甚至可能将整个行业带入歧途——让资源从那些更紧迫、更务实的技术应用中抽离。更关键的是,它让我们心安理得地逃避。它诱使我们相信,或许可以跳过那些需要全球协作、政治妥协与高昂代价的难题,无论是气候危机、公共卫生,还是系统性不平等。既然机器很快就能替我们解决一切,我们何必再费心力?
这种发展背后的代价也鲜被追问。
看看这场豪赌所投入的资源。就在最近,OpenAI 与英伟达(NVIDIA)宣布了一项价值高达 1,000 亿美元的合作,仅为满足 ChatGPT 等模型的运行,预计就需要至少 10 吉瓦的电力——这相当于一座大型核电站的发电量。一道闪电瞬间释放的能量或许也不过如此。
作为参照,电影《回到未来》中驱动德罗宁时光机的“磁通电容器”只需约 1.2 千瓦时。而仅仅两周后,OpenAI 又与 AMD 达成另一项合作,再添数千兆瓦的电力需求。
在为英伟达交易站台时,萨姆·奥特曼(Sam Altman)曾宣称,若不建设更多数据中心,社会将不得不在“治愈癌症”和“普及免费教育”之间做出残酷抉择。“没人想面临这种选择,”他说。(讽刺的是,几周后,OpenAI 便宣布将为 ChatGPT 推出情色内容生成功能)更令人不安的是,这种对遥远神话的追逐,正在挤占那些能切实改善当下生活的技术投入。
“在我看来,这是巨大的机会错失,”人工智能医疗公司 Lirio 的首席 AI 科学家克里斯托弗·西蒙斯(Christopher Simmons)直言,“这是资源的严重错配。明明有无数真实、紧迫的问题亟待解决,我们却把海量资金投向一个定义模糊、前景不明的目标。”
“但当 OpenAI 这样的公司手握千亿资金时,它们其实不必做出务实的选择,”西蒙斯补充道,“资本规模本身,就足以让它们脱离现实需求的引力。”
这种扭曲的叙事也正渗透进政策领域。加州大学戴维斯分校的科技政策研究者蒂娜·劳(Tina Law)担忧,政策制定者正被游说力量牵引,过度关注“AI 终将毁灭人类”的遥远假想,而忽略了算法偏见、劳动替代、监控扩张等当下真实存在的危害。对“存在性风险”的宏大辩论,反而将结构性不平等、数字鸿沟等迫切议题边缘化。
“炒作对科技公司而言是一门有利可图的生意,”劳一针见血地指出,“其核心策略是营造一种‘不可避免’的叙事:如果我们不发展,别人就会领先。一旦某种技术被塑造成历史必然,人们不仅会犹豫是否要抵制,更会怀疑自己是否有能力抵制。”
佐治亚理工学院的技术政策学者米尔顿·穆勒(Milton Mueller)则将 AGI 竞赛比作当年的核军备竞赛:“它建立在一种危险的逻辑上——谁先掌握这项技术,谁就能控制所有人。这种思维会彻底扭曲我们的外交政策与国际关系。”
穆勒进一步指出,企业乃至政府之所以热衷推动 AGI 神话,背后是明确的商业与战略动机。关键在于,这场竞赛根本没有公认的终点线。只要神话还能吸引投资与关注,它就可以被无限期地讲述下去。
故事的结局或许并不复杂。它既非乌托邦,也非地狱——更可能的是,在抵达任何所谓“奇点”之前,OpenAI 与它的同行们,已在追逐神话的过程中赚得盆满钵满。
而世界面对的许多真实的问题,依然在那里。
![]()
新的“AGI”还在路上
迄今为止,我们还未讨论到一个最典型的特征:阴谋论往往预设存在一个幕后操纵的权力集团,而信徒们相信,通过不懈追寻“真相”,就能揭开这个精英阶层的面具。
当然,那些警惕 AGI 的人并没有公开指控光明会或世界经济论坛在阻挠 AGI 的实现或隐藏其秘密。
但假如,真正的操纵者并非在阻止 AGI,而是在长期鼓吹 AGI 叙事呢?硅谷的巨头们正在投入巨额资源,竭力开发 AGI——而这首先是一门生意。对他们而言,AGI 的神话具有无比现实的商业与战略价值。
正如一位人工智能公司高管近期私下透露的那样:“AGI 必须永远被描述为‘距离实现还有 6 到 12 个月’。如果显得太遥远,我们就无法从顶尖机构吸引人才;但如果显得太近……那故事还怎么讲下去?”
香农·瓦洛尔曾尖锐指出:“如果 OpenAI 公开说他们只是在打造能让公司更赚钱的机器,公众绝不会买账。”你创造神,自己也得成为神。
正如大卫·克鲁格所观察到的,硅谷弥漫着一种根深蒂固的逻辑:开发人工智能是获取终极权力的途径(这也是利奥波德·阿申布伦纳《情境感知》的核心论点之一)。“我们即将拥有如神一般的力量,”克鲁格说,“但我们的意识、伦理和制度却并未准备好。很多人相信,谁先实现 AGI,谁就基本掌控了世界。”
“他们投入巨大精力去推销一个充满 AGI 的未来图景,并且凭借其影响力,已经取得了相当大的成功。”他补充道。
本·戈策尔甚至对这个隐秘集团的成功流露出近乎悲哀的情绪。他开始怀念 AGI 仍处于边缘、无人问津的岁月。“我们这一代投身 AGI 研究的人,既需要远见,也需要固执——甚至是一种蛮劲,”他说,“但现在呢?它变得就像你奶奶劝你别学哲学了,赶紧找份正经工作一样。”
“这种想法变得如此主流,实在令人困惑,”他坦言,“这几乎让我想转行去做些真正冷门的东西——那些还没被人群淹没的领域。”他半开玩笑地(我猜)说:“显然,给 AGI 收尾比满足我个人探索前沿的偏好更重要。”
但我仍然不明白:他们到底在完善什么?如果我们如此沉迷于这个科技童话,对真正的技术发展究竟意味着什么?从很多方面看,我认为整个 AGI 理念建立在对人工智能能力的扭曲预期之上——甚至建立在对“智能”本质的误解之上。
归根结底,AGI 论点的核心在于:人工智能已取得飞速进步且将持续提升。但暂且抛开技术层面的质疑——若它未能持续进步呢?——剩下的主张无非是:只要拥有足够数据、计算力或神经网络,智能便能像商品般无限获取。
可事实并非如此,智能并非可无限递增的量化指标。智者可能在某领域卓尔不群,却在其他领域平庸无奇。例如某些诺贝尔奖得主弹琴或育儿能力极差,还有某些所谓的“聪明人”坚称 AGI 明年就会到来。
我们不禁要问:下一个让我们上钩的神话,会是什么?
通话结束前,戈策尔随口提到他刚在旧金山参加了一场活动,“主题是关于超感官知觉、预知未来……那些东西。”
“这就是 20 年前 AGI 的处境,”他说,“那个时候,每个人都觉得这想法简直离谱。”
参考资料:
https://www.technologyreview.com/2025/10/30/1127057/agi-conspiracy-theory-artifcial-general-intelligence/





京公网安备 11011402013531号