编辑:元宇
近日,「AI教父」Geoffrey Hinton在一次采访中再发预警:「杀手机器人」「无人机」等致命自主武器的兴起,正在让战争变得更易发动。Hinton认为OpenAI、Anthropic等许多AI公司在AI安全方面做得都不够。他还谈到了贪婪、自负等人性弱点,对AI研究可能带来的潜在风险。
Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么?
Hinton:我会说:你们很清楚,你们正在开发的东西,很可能把人类毁灭掉。
近期,「AI教父」Geoffrey Hinton,在与《Next Question》主持人Katie Couric对话时,直言不讳地说出了内心对AI安全的忧虑。
Geoffrey Hinton与《Next Question》主持人Katie Couric对话
实际上,这已经不是他第一次为预警AI风险而发声。
2023年5月,时任谷歌首席AI科学家的Hinton从谷歌辞职,扮演起「AI吹哨人」的角色。
自此,他一直在关注和呼吁人类要警惕AI过快发展带来的风险,还表示后悔自己未能更早地考虑AI的安全问题。
近日,Hinton再次发出警告——AI正在改变战争方式,让战争变得更容易:
自主武器,意味着「死掉的机器人」,而不是「裹尸袋」。
Geoffrey Hinton称,杀手机器和无人机正在降低战争的人道成本
Hinton表示,「杀手机器人」「无人机」等致命自主武器的兴起,正在让发动战争变得更容易。
AI让发动战争变得更容易
「杀手机器人」参与战争,将会代替许多原本可能在战场中死掉的人。
这本应该是件好事,但恰恰也是最让这位「AI教父」恐惧的事情。
这样一来,发动一场战争的成本会更低,战争就更容易爆发了。
Hinton表示,「杀手机器人」的兴起不会让战争更安全,相反它会通过降低作战的人力与政治成本,使战争更容易爆发。
这使得一个富国想入侵一个穷国,变得更容易了。
因为原来能够阻战争发生的,就是这些富国的公民在战场上被装进裹尸袋。
但是,AI改变了这一点,「如果有致命自主武器,回来就不是死人,而是死掉的机器人。」
在Hinton看来,这种转变,可能会怂恿政府发动战争,同时也会让军火商大发其财。
「这对军火商来说简直太棒了,因为这些机器人更换起来很昂贵」。
除了降低战争成本,Hinton认为AI已经在重塑战场,改变战争的方式。
比如,在现实战争中,已经通过AI驱动的无人机、无人系统改变了战场,颠覆了传统战争形态和战争手段。
甚至有人说,未来战争中,数据的作用将超越弹药。
以现实战争举例,现在一架500美元的无人机,就可以摧毁一辆价值数百万美元的坦克。
而且,AI技术也让传统硬件逐渐显得过时,比如它使载人战斗机变成一个愚蠢的主意:
「如果你能在战机里装上AI,AI可以承受更高的过载——而且不用过多担心人员伤亡。」
AI接管将是人类最大的担忧
与AI对未来战争带来的影响相比,Hinton更担心人类被AI接管的风险。
2024年,Hinton在获得诺贝尔物理学奖时表示,希望人们可以更认真地看待他关于AI以及其未来角色的观点。
而经过这些年,Hinton也逐渐把他有关AI担忧的思考,更广泛地传开了。
当谈到当下AI的风险,Hinton表示:
我的主要担忧,并不是恶意行为者在短期内滥用AI的风险(那当然也非常严重),而是更长期的风险——AI本身接管。
这种风险,主要来自科学家们对AI将大幅超越人类智力的预测。
Hinton谈到了要避免被AI接管的唯一方法,就是让我们构建的那些超级智能AI,根本「不想」接管。而实现这一点的技术,和让AI更聪明的技术有些不同。
在这个问题上,更容易取得国际间的合作。因为各国不会分享如何做出最聪明AI的办法,但却会在「如何让它不想取代人类」这件事上合作。
AI会取代我们的工作吗?
除了战争,Hinton关于AI的另一个警告,是它几乎可能在所有领域,取代大量的工作岗位。
这个问题所带来的挑战,并非在技术,而是在社会治理上:
「如果我们的政治体系足够公平,当AI大幅提升生产率时,本应当使每个人都能得到更多商品和服务。」
当谈到大学生未来的职业选择,Hinton认为AI会很快替换掉呼叫中心这类低薪、培训差的工作。
此外,还有律师助理、程序员等白领岗位上的一些初级岗位工作也可能被替代(一些能设计复杂系统的顶尖程序员仍然会吃香)。
与这些岗位相比,相反一些需要人手灵巧度的工作,比如水管工更不容易取代(当然,最终机器也会变得灵巧,所以十年、二十年后,连这个可能也不安全了)。