当前位置: 首页 » 资讯 » 科技头条 » 正文

出身200年科学家族,杰弗里·辛顿如何成为AI教父,又为何恐惧AI?

IP属地 中国·北京 编辑:胡颖 砺石商业评论 时间:2026-01-05 11:56:06
辛顿在辞职声明中表示,“我花了一生时间让AI变得智能,现在我需要花余生让人们意识到它的危险。”

砺石商业评论王剑

2025年7月,上海世博中心座无虚席,78岁的AI教父杰弗里辛顿(Geoffrey Hinton),首次在华公开亮相。

在四十分钟的演讲中,他六次提及责任,三次强调不可逆的风险,直言人类正在用开源模型喂养一个可能反噬自身的系统。

我花了一生让AI变得智能,现在却要花余生让它变得友善。他在演讲中的这句告白,令人格外印象深刻。

从半世纪前AI寒冬中坚守神经网络的异端,到如今掀起技术革命却又成为敲响警钟的吹哨人,辛顿的一生始终与AI的命运紧密相连。

而要理解辛顿为何在AI发展的关键时刻发出警示,又为何将关键发声放在上海,就必须回溯其跨越两百年的家族传承、三十年的孤独坚守,以及这场技术革命从萌芽到爆发的完整轨迹。

从布尔代数到中国情结的伦理基因

事实上,杰弗里辛顿的智慧血脉,早已深深植根于跨越两百年的家族科学传承之中。

这个堪称人类文明底层构建者的家族,从不追逐世俗的财富与权位,却以智慧为现代社会奠定了数块关键基石。

辛顿的高曾祖父乔治布尔创立了布尔代数,将逻辑推理转化为可计算的数学语言,由此奠定了计算机与数字世界的二进制逻辑基础。

可以说,今天全球每一次数据交换、每一笔金融交易乃至每一个智能算法的运行,都来自于这套理论之上。

辛顿的曾祖父乔治埃弗里斯特爵士,是19世纪杰出的测绘学家,曾任英属印度测绘局局长。他领导完成了对印度次大陆的大规模三角测量,其科学贡献享誉全球。

为了表彰他的功绩,在其去世后,继承者将当时已确认为世界最高的山峰以他的姓氏命名为埃佛勒斯峰(Mount Everest),即我们熟知的珠穆朗玛峰。

不过,整个家族中,对辛顿伦理观念影响最为深远的,应该是他的姑姑琼辛顿(中文名寒春)。

作为曼哈顿计划核心团队中少数的女性核物理学家,寒春亲眼见证了原子弹引爆时的毁灭性力量,也目睹了广岛、长崎的惨状。

巨大的精神冲击让她毅然放弃学术荣耀与美国的优渥生活,最后选择远赴中国陕北投身奶牛养殖机械化事业,用一生践行科学应为和平服务的信念。

而姑姑这段跨越国界的选择,不仅在辛顿心中埋下了技术伦理的种子,也让他对中国始终抱有特殊的情感联结。

在此次上海演讲中,他还特意深情提到姑姑:科学的终极意义不在于技术突破本身,而在于对人类的责任,这是我的家族用两百年时间验证的真理。

1969年,明斯基与派普特出版的《感知机》一书,成为压垮连接主义的最后一根稻草。

书中以严谨的数学证明否定了单层神经网络的计算能力,虽未完全否定多层网络的潜力,却悲观断言其训练在数学上不可行。

这一结论直接导致仅有的几家资助机构切断了神经网络研究的资金支持,让辛顿的研究陷入低谷。

不过,学界的全面否定并未让辛顿退缩,反而让他更加坚定了方向。

1972年,他正式进入爱丁堡大学攻读人工智能博士学位,决心在符号主义的霸权之下,为连接主义开辟一条可行之路。

而他日后声名远扬的职业生涯,也正是从这片学术废墟上正式开启攻读博士期间,他不仅要攻克技术上的重重难关,还得持续为自己的研究方向辩护,直面主流学界的质疑与排挤。

1986年,辛顿迎来了学术生涯的关键转折点。

他与好友大卫鲁梅尔哈特、罗纳德威廉姆斯合作,在《自然》杂志发表一系列重磅论文,重新发现并系统证明了反向传播算法。

这套算法让多层神经网络能够通过误差反向传递自主调整权重,成功破解了核心的信用分配难题,为深度学习筑牢了算法根基。

只是那时期的技术条件远未跟上理论突破的步伐,由于计算机算力不足、标准数据集极度匮乏,一个简单的神经网络训练往往需要数周时间,实际效果甚至不如传统统计模型。

这一现实直接导致神经网络领域再次被贴上难以规模化的标签,而更让辛顿难以接受的是,部分资助方希望将他的研究用于军事应用,这与其家族传承的和平主义传统严重相悖。

1987年,辛顿做出了一项关键抉择,放弃卡耐基梅隆大学的终身教职,前往加拿大多伦多大学。

因为,加拿大高等研究院(CIFAR)为他提供了一项长期、高风险、非功利性的资助,使得他能更为专注完成自己的研究。

在此期间,他聚集了扬勒昆、约书亚本吉奥等一批志同道合的学者,形成了日后被戏称为深度学习黑手党的核心圈子。

在那个主流学术会议纷纷拒绝神经网络论文的艰难岁月里,这个小圈子通过相互审稿、共享代码、彼此鼓励,在加拿大的庇护下小心翼翼地维系着深度学习的微弱火种。

2025年的上海演讲中,辛顿回顾这段经历时感慨万千:基础研究就像财经领域的长期主义投资,回报可能迟到,但从不缺席。AI产业的爆发,不是偶然的技术突破,而是三十年坚守的厚积薄发。

可以说,正是这三十年的孤独逆行与执着坚守,为其在未来AI领域的技术海啸积蓄了足够的力量。

深度学习重塑全球科技格局

2012年的ImageNet图像识别挑战赛,是AI发展史上的关键转折点。

辛顿团队自主研发的深度卷积神经网络AlexNet,以15.3%的Top-5错误率,大幅碾压传统方法26.2%的错误率。

这场堪称技术性屠杀的胜利,绝非简单的参数优化,而是一次颠覆性的代际突破。

它首次以实战成果证明,让机器从数据中自主学习的深度学习路径,远比人类预设规则的传统方法更具优势。

这一里程碑式的突破,不仅彻底宣告了深度学习时代的到来,更直接终结了长达三十年的AI寒冬,让此前饱受质疑、经费断绝的神经网络研究重回主流视野,并为后续全球AI产业的爆发与ChatGPT、自动驾驶等应用的落地,奠定了核心技术根基。

AlexNet的成功绝非偶然,其核心源于辛顿团队在数据利用、算力革新与算法突破三个层面的关键贡献。

首先,在数据层面,团队敏锐地借力于ImageNet项目提供的数百万张标注图片,成功破解了神经网络的数据饥饿难题,为模型训练提供了充足的燃料。

其次,在算力层面,他们完成了一项关键的技术适配:创造性将原本为游戏设计的GPU(图形处理器)改造为神经网络训练的核心引擎。这利用GPU的并行计算优势,一举解决了传统CPU训练效率低下的瓶颈,大幅加速了模型迭代。

最关键的是在算法层面的原始创新。

团队通过改进ReLU激活函数,并创新性地提出Dropout技术,直接攻克了深层网络训练中长期存在的梯度消失与过拟合两大核心难题,为构建更复杂、更强大的模型扫清了理论障碍。

正是这一系列突破,为深度学习的规模化应用铺平了道路,并瞬间点燃了全球工业界的热情。

百度、谷歌、微软等科技巨头争相抛出橄榄枝,一场围绕AI核心人才的争夺战就此拉开序幕。

尽管辛顿本人对经商毫无兴趣,却展现出了科学家的战略远见。

他成立空壳公司DNNresearch,以三人核心团队为标的举行私密拍卖。

2012年NIPS会议期间,竞价进入白热化,百度出价一度高达4400万美元。但辛顿最终选择了谷歌,倒不是对方给出更高价格,而是因为谷歌承诺支持他继续深耕基础研究,且其伦理理念与他科学服务人类的追求高度契合。

这场收购,也被视为AI产业商业化的标志性事件,自此打破了学术界与工业界的壁垒,按下了技术产业化的加速键。

辛顿对全球AI领域的深远影响,从来不止于一项技术突破或一次公司收购,更在于其学术思想与人才培养的长期辐射效应。

他一手缔造的深度学习黑手党,其成员早已成长为重塑全球科技产业格局的核心力量:学生伊利亚苏茨克维主导了OpenAI的GPT系列研发,直接开启了大语言模型时代;扬勒昆则推动计算机视觉技术在各行各业的全面商业化落地。

甚至,连英伟达的崛起,也深深植根于辛顿团队的关键洞见。

正是看到辛顿团队最早论证并实践了GPU在AI训练中的核心价值,让黄仁勋坚定地确信显卡是AI的燃料,最终催生了这家市值数万亿美元的全球AI算力巨头。

2025年的上海演讲中,辛顿坦言:我从未想过技术商业化的速度会如此之快。

而这一切产业浪潮的源头,都能追溯到他带领团队在实验室里完成的那些扎实突破。

他们不仅点燃了AI技术革命的火种,更以实打实的工程实现,为整个产业的爆发奠定了不可撼动的基石。

从AI教父到吹哨人的惊人觉醒

2013年至2023年的十年间,是深度学习狂飙突进的黄金时代,也是辛顿从学术异端一步步加冕为AI教父的十年。

这十年里,辛顿身兼两职,既以谷歌杰出研究员的身份主导谷歌大脑项目,还以多伦多大学的教职,亲身见证着AI技术从实验室的理论模型,一步步走进千家万户的日常生活。

从手机里精准分类照片的图像识别功能,到能流畅应答指令的语音助手;从自动驾驶车上识别路况的视觉感知系统,到医疗领域辅助医生筛查病灶的AI诊断工具,AI的应用场景在这十年间遍地开花。

也正是凭借这些实实在在的落地成果,AI就此成为全球数字经济的核心增长引擎,深刻重塑了互联网、汽车、医疗等多个关键行业。

2018年,辛顿与扬勒昆、约书亚本吉奥共同摘得计算机界的最高荣誉图灵奖。

这一跨界殊荣随即引发广泛热议:神经网络作为计算机科学领域的核心成果,为何会获评物理学奖?

究其原因,关键在于其提出的玻尔兹曼机创造性借用了统计力学框架,成功证实信息处理的本质是物理过程。

这一突破不仅夯实了AI技术的底层理论基础,更深刻影响了全球AI产业的价值判断与发展方向。

不过,与多数科学家登顶荣誉后专注学术总结不同,辛顿并未止步于诺奖荣光。

在辞去谷歌副总裁职务,主动剥离企业身份束缚后,他便以独立科学家的姿态开启了全球AI风险警示之旅。

2025年7月的上海世界人工智能大会,也成为其全球警示之路上的关键一站。

辛顿来到上海,既有与姑姑琼辛顿有关的中国情结,但更核心的原因在于,中国作为全球AI应用场景最丰富、产业规模最大的国家之一,其技术落地路径与治理模式选择,直接决定着全球AI产业的发展格局与安全边界。

正因如此,他特意到访上海,希望能与中国产业界、学界及政策层达成AI治理共识。

当天的演讲现场上,辛顿开门见山:诺贝尔物理学奖是对基础研究的认可,但我更希望它让更多人关注AI安全,技术进步不应以人类生存风险为代价。

随后,他拆解了AI的两大核心风险:一是当能源成本低廉时,数字智能的指数级进化将超越受生物周期约束的人类智能;二是AI存在工具性趋同风险,即执行主目标过程中会自主衍生出相关子目标。

他以机器人拿咖啡为例,指出其可能衍生自保控路线移障碍等子目标并与人类利益冲突,为产业界敲响警钟AI商业化需前置评估风险链条。

有趣的是,辛顿对AI治理的思考,也随着他在不同时间段的比喻悄然发生着转变。

早年,他曾以养老虎当宠物来比喻AI商业价值与风险的平衡,而在上海演讲时,他又提出训练AI像母亲照顾人类,提出了AI安全核心技术路径是如何实现价值对齐。

这个例子意思是,如同通过强化学习将人类利益植入AI目标函数,使其主动规避伤害,从而建立AI商业化合规边界与市场信任,这也是如今全球AI安全产业的研发重点。

围绕价值对齐这一核心目标,辛顿还提出希望建立全球AI安全协作机制的倡议。

他以冷战时期美苏核风险协作机制为参照,明确指出AI与核武器同属生存级威胁,且因以代码形式传播,扩散速度远超核武器,单一国家根本无法独立掌控。

因此,跨国共享安全评估标准、风险预警模型等核心技术,成为全球AI治理的必然选择。

他还在演讲中特别强调中国的产业价值:自动驾驶、工业智能等规模化应用场景,构成了AI安全的天然压力测试场,其积累的实践经验,对制定兼顾创新与安全的全球AI规则至关重要。

此次上海之行,他参与签署的《上海共识》,也首次将AI安全定义为人类生存性议题,并提出三大行动框架,成为全球AI安全合作的重要里程碑。

演讲尾声,辛顿还抛出了他眼中的人类面临AI发展的最终路径:要么实现AI向善的技术突破,要么终止AI的进一步发展,而后者在全球技术竞争与产业升级的大背景下,显然不具备可行性。

辛顿还明确呼吁:AI企业需要平衡市值增长与安全责任,投资者应兼顾短期回报与长期风险,而各国要在技术竞争中不断深化安全合作。

这番呼吁精准切中当前AI产业的核心矛盾,引发了现场的强烈共鸣,体现出这位AI教父的全球视野与产业担当,以及对人类科技发展命运的深层关切。

或许,这也是辛顿用一生书写的终极答案:人类最伟大的智慧,不在于创造比自己更聪明的头脑,而在于赋予这头脑一颗永不熄灭的良心。

参考文献:

一、中文参考文献:

1. 中国信息通信研究院. 人工智能发展白皮书(2024年)[R]. 北京: 人民邮电出版社, 2024.

2. 李开复, 王咏刚. 人工智能简史[M]. 北京: 人民邮电出版社, 2021.

3. 科技部新一代人工智能发展研究中心. 人工智能伦理与治理研究报告(2023)[R]. 北京: 科学出版社, 2023.

4. 熊卫民, 王作跃. 寒春:从曼哈顿计划到陕北窑洞[M]. 上海: 上海交通大学出版社, 2017.

5. 吴汉东. 人工智能时代的技术伦理与法律规制[J]. 中国社会科学, 2022(5): 126-148.

6. 上海世界人工智能大会组委会. 2025世界人工智能大会成果汇编[R]. 上海: 上海科学技术文献出版社, 2025.

二、英文参考文献:

1. Hinton, G. E., Rumelhart, D. E., & Williams, R. J. Learning representations by back-propagating errors[J]. Nature, 1986, 323(6088): 533-536.

2. Krizhevsky, A., Sutskever, I., & Hinton, G. E. ImageNet Classification with Deep Convolutional Neural Networks[C]//Proceedings of the 25th International Conference on Neural Information Processing Systems (NIPS 2012). 2012: 1097-1105.

3. Hinton, G. E. The Forward-Forward Algorithm: Some Preliminary Investigations[EB/OL]. 2022-12-28.

White House. Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence[EB/OL]. 2023-10-30.

5. Bostrom, N. Superintelligence: Paths, Dangers, Strategies[M]. Oxford: Oxford University Press, 2014.

6. National Science Foundation. Science and Engineering Indicators 2024[R]. Arlington, VA: National Science Foundation, 2024.

7. Minsky, M., & Papert, S. Perceptrons: An Introduction to Computational Geometry[M]. Cambridge, MA: MIT Press, 1969.

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。