当前位置: 首页 » 资讯 » 科技头条 » 正文

知名记者出书爆锤OpenAI,奥特曼亲自下场反击,《AI帝国》作者最新访谈揭露了更多内幕

IP属地 中国·北京 编辑:陈阳 茶饮消息 时间:2026-04-16 10:56:39

近日,《AI帝国》作者郝珂灵与播客主持人Steven Bartlett进行了一场深度对话。

郝珂灵毕业于麻省理工学院机械工程专业,对硅谷进行了长达八年的追踪报道,以局内人视角剖析了AI产业背后的权力逻辑与利益格局。其新作《AI帝国:萨姆奥特曼与OpenAI的梦想与噩梦》基于对250多位行业内部人士的深度访谈(其中包括近百名OpenAI前雇员),是目前为止对AI产业内幕记录最系统的著作之一。这本书在全球范围内引发关于AI产业扩张模式的广泛讨论,连Sam Altman本人也专门发文回应。

在这场对谈中,郝珂灵提出了一个与行业主流叙事相悖的核心判断:硅谷头部AI公司正在复制古典帝国的扩张路径,通过AGI末日论与解放人类的双轨叙事制造恐慌,将技术的开发权与监管权锁定在少数精英手中,同时对全社会的数据资源、劳动力与基础设施进行不受约束的攫取。

以下是这场对谈的核心内容:

1.AGI末日论与乌托邦并存,本质是一种商业控制策略

大众往往被硅谷科技巨头们描绘的未来所震慑:AI要么解决气候变化和攻克癌症,要么毁灭全人类。郝珂灵认为,这套极端的双轨叙事,是AI巨头们刻意设计的话语策略。

渲染技术灾难,核心目的并非向公众示警,而是将AI的开发权与监管权顺理成章地集中到少数人手里。恐慌制造了一套自洽的逻辑:这项技术太危险,只有硅谷头部大厂才有能力驾驭它。巨头们同时通过不断重新定义AGI的边界,在规避外部监管的同时,持续吸纳大规模资本。

2.AI不会解放劳动力,而是会折断中产阶级的职业阶梯

行业通行的叙事是:AI会淘汰低效工作,并创造我们难以想象的新岗位。但落到实处,这些新岗位正在制造一个庞大的底层劳工群体。

郝珂灵认为,裁员潮席卷之下,许多高学历白领、创意工作者乃至行业专家,最终进入数据标注行业维持生计。这类工作高度机械化、薪酬低廉,把人的专业经验压缩成流水线上的廉价投入。更讽刺的是,这些前专业人士正在亲手训练那些替代自身岗位的模型。职场的中间层就这样被掏空——极少数高薪技术岗位在顶端,大量低阶执行性工作在底端,中间的晋升台阶正在消失。

3.庞大的算力竞赛,正在挤占脆弱社区的基本生存资源

AI智能建立在极其沉重的能源消耗之上。随着Scaling Law规模定律持续推进,硅谷巨头们在全球疯狂圈地,建立耗电量堪比整座城市的超大型数据中心。

选址上,硅谷科技大厂倾向于议价能力弱、阻力更小的边缘社区。这些设施严重挤占当地居民的饮用水和电力,为维持算力运转而启用的化石燃料发电厂,更向周边社区持续排放污染物。发布会上的技术愿景,背后是被转嫁给弱势群体的环境成本与健康代价。

4.Sam Altman是下一个乔布斯,还是一个顶级操纵者?

郝珂灵采访了超过300人后发现,人们对Altman的评价比她报道过的任何科技人物都更极端,要么认为他是乔布斯级别的新一代领袖,要么认为他是极具操纵性的骗子。而这种分歧只取决于一件事:你是否认同他对未来的愿景。

更耐人寻味的是,那些与他共事最深、最了解他的人,恰恰是最终与他决裂的人:联合创始人Ilya、CTO Mira Murati先后主导或参与了将他踢出局的行动,随后相继离开OpenAI。Dario Amodei、Elon Musk等人在与他合作后也各自出走,分别创立了竞争对手公司。郝珂灵的观察是:他们每个人都想按照自己的形象来塑造AI,而与Altman共事的结果,是让他们意识到这件事不能交给别人来做。

5.我们需要更多解决具体问题的自行车,而非不断造火箭

如果任由大模型这条高耗能路径野蛮扩张,整个社会的资源分配将面临严峻考验。郝珂灵认为需要重估AI技术的发展路线本身。

大语言模型如同火箭,消耗海量资源,只为解决泛化问题;社会真正需要的,是更多像AlphaFold那样的自行车,以精选的小规模数据,用极低能耗,在医药、材料等垂直领域创造切实的社会效益。AlphaFold用于蛋白质折叠预测,已获诺贝尔奖。对于创业者而言,盲目追逐像人一样思考的通用大模型,是一场资源消耗的无底洞。回归技术解决具体问题,才能走出硅谷大厂垄断阴影。

以下是郝珂灵访谈实录:

1.AI帝国的神话构建

主持人:现在让我们正式开始今天的节目。郝珂灵,你写了摆在我面前的这本书,书名叫做《Sam Altman的梦想与梦魇》(Dreams and Nightmares in Sam Altman’s OpenAI)。我想问的第一个问题是,为了撰写我们今天要讨论的这本书及相关主题,你经历了怎样的研究过程和心路历程?

郝珂灵:我进入新闻界的道路比较奇特。我曾就读于麻省理工学院学习机械工程,毕业后搬到了旧金山,加入了一家科技初创公司。我成为了硅谷的一员,并在那里接受了关于硅谷究竟是什么的洗礼。当时我加入了一家非常有使命感的初创公司,专注于开发应对气候变化的技术。然而几个月后,董事会却因为公司不盈利而解雇了CEO。现在回想起来,那对我来说是一个非常关键的转折点。

我当时就在想,如果这个创新中心最终只是为了开发盈利性技术而设计,而世界上许多亟待解决的问题(比如气候变化)根本无法带来利润,那我们现在到底在做些什么?我们是如何发展到如今这个地步的:创新不一定是为了公众利益,甚至有时为了追求利润而损害公众利益。在那一刻我经历了一场小小的职业危机。我觉得自己花了四年时间为这份职业做准备,现在却发现并不适合它。

于是我决定尝试一些完全不同的事情。我一直很喜欢写作,两年后我在《麻省理工科技评论》获得了一份全职报道AI的职位。这份工作给了我探索这些问题的空间:谁有权决定我们开发什么样的技术?金钱和意识形态是如何驱动这些技术诞生的?我们最终如何才能真正重新构想创新生态系统从而造福全球民众?这就是我决定写这本书的初衷。虽然当时我并没有意识到自己正在为写书做准备,但实际上从2018年接受那份工作开始,我就已经踏上了调研书中故事的旅程。

主持人:现在确实是投身人工智能领域的绝佳时机。对于那些还不了解背景的人来说,你刚入行那会儿还在OpenAI成立之前,而后来ChatGPT的发布震惊了世界。在撰写这本书的过程中,你采访了很多人,去了很多地方。你能大概介绍一下你采访了多少人、去了世界上的哪些地方吗?

郝珂灵:我进行了300多场访谈,采访了250多人,其中90多人是OpenAI的前任或现任员工及高管。因此这本书涵盖了OpenAI第一个十年的内幕故事,以及它是如何走到今天这一步的。但我并不想仅仅写一本企业传记。我强烈地感觉到,为了帮助人们理解AI行业的影响,我们必须走出硅谷。这些公司总是宣扬AI将造福全人类,这也是他们的口头使命。但当你去到那些与硅谷截然不同的地方时,这种辞令就开始崩塌。那些地方的语言与硅谷完全不同,历史和文化也存在着本质上的差异。正是从那些地方开始,你才能真正看清这个行业在我们周围扩张的真实面貌。

主持人:郝珂灵,通常我会尝试主导对话,但在今天这种情况下,我觉得跟随你的思路走或许是更好的选择。考虑到这一点,我想问你,这段旅程应该从哪里开始?如果我们讨论该书的主题,应该从哪里切入?是从泛指的AI和人工智能开始吗?另外我想强调一点,这也是在各种对谈中经常被遗漏的,那就是让我们假设目前的观众对AI一无所知。我们要假设他们不知道什么是Scaling Laws、GPU或算力之类的概念,尽量用最通俗易懂的语言来探讨,或者将复杂的术语解释清楚,让尽可能多的人能够听懂。

郝珂灵:好的,我认为应该从AI作为一个学科诞生时讲起。追溯到1956年,一群科学家聚集在达特茅斯学院开创了一个新学科。这门科学学科怀揣着一种雄心壮志。具体来说,达特茅斯学院的一位助理教授John McCarthy决定将这门学科命名为人工智能。这并不是他最初构想的名字。前一年他曾尝试将其命名为自动机研究,但他的某些同事对这个名称感到担忧,因为它将这门学科的理念局限在了重塑人类智能上。在当时以及现在,关于什么是人类智能,科学界并没有达成共识。心理学、生物学和神经学等领域都没有给出明确的定义。

事实上,历史上每一次试图量化和划分人类智能等级的尝试,背后都是由邪恶的动机驱动的。这种行为往往是为了通过科学去证明某些群体天生劣于其他群体。AI领域缺乏明确的准则,当整个行业声称他们最终目标是重建与人类一样智能的AI系统时,并没有任何衡量标准。我们甚至不知道该如何定义这个目标,如果不知道终点是什么,又怎么知道何时才能抵达呢?

这实际上意味着这些公司可以随意使用通用人工智能(AGI)这个术语。AGI正是现在用来指代重现人类智能这一宏大目标的词汇。他们可以随心所欲地使用它,并根据自身利益进行定义和重新定义。

在OpenAI的发展史上,AGI的定义就被反复修改过。当Sam Altman在国会作证时,AGI是一个能够治愈癌症、解决气候变化、消除贫困的系统。当他向消费者推销产品时,AGI则是你能拥有的最神奇的数字助手。当他与Microsoft谈判投资协议时,AGI被定义为一个能产生1000亿美元收入的系统。而在OpenAI自己的官方网站上,AGI被定义为在大多数具有经济价值的工作中超越人类的高度自治系统。这根本不是一个关于单一技术的连贯愿景。这些截然不同的定义完全是针对特定受众抛出的噱头,目的是动员大众抵制监管,或者吸引更多消费者买单。该行业之所以这么做,只是为了获取更多资本和资源以继续这场定义模糊的技术狂飙。

主持人:谈到随时间演变的不同定义,2015年OpenAI正式宣布成立之前,Sam Altman在一篇博客文章中明确概述了生存风险。他写道,开发出超越人类水平的机器智能,可能是人类持续生存面临的最大威胁;虽然他认为像人造病毒等其他威胁肯定会发生,但AI可能是最容易毁灭一切的方式。

郝珂灵:通常当Altman面向公众写作或演讲时,他心目中的受众绝不仅限于普通公众。在那个特定的时刻,他其实是试图说服Elon Musk与他共同创立OpenAI。因为当时的Musk正全身心地对AI可能带来的巨大生存威胁发出警告。如果你去读那篇博文,会发现Altman使用的语言与Musk当时的话术如出一辙,完全反映了Musk的观点。

主持人:完全一致。确实,十年前Musk就在播客、推文以及各种公开言论中表示,人类面临的最大生存风险就是AI。

郝珂灵:没错,所以你看他在博文的括号里还提到了其他可能发生的事情,比如人造病毒。这是因为在那之前,Altman一直谈论的都是人造病毒。而为了拉拢Musk这个关键人物,他需要转变话术来迎合对方。对于Altman来说,他需要化解一个矛盾,即他现在为了迎合Musk而提出的新核心恐惧与他之前的言论完全相悖。所以他才会巧妙地加上那句“我认为现在是这样,尽管以前我曾说那是人造病毒”。

主持人:你的意思是Sam Altman操纵了Musk吗?因为Elon Musk最终确实捐赠了巨额资金给OpenAI,并且是联合创始人。

郝珂灵:Elon Musk最终确实与Altman共同创立了OpenAI。当然从Musk的角度来看,他确实感觉被操纵了。他认为Altman在沟通时刻意迎合他,以此骗取他的信任并让Musk将其视为这项事业的合伙人。不过后来Musk还是离开了OpenAI。通过Musk和Altman目前正在进行的诉讼中披露的文件可以看出,Musk在某种程度上实际上是被排挤出去的。这就是为什么他对Altman怀有如此强烈的个人恩怨,并声称Altman用欺骗的手段将他卷入了这一切。

主持人:所以在2015年,Sam Altman通过博客宣称AI是人类最大的生存威胁之一。与此同时Musk也在发表著名的演讲,比如在麻省理工学院称AI是最大的生存威胁,甚至将开发AI比作召唤恶魔。而你刚才的观点是,Sam Altman只是在模仿Elon Musk的语言,目的是拉拢他加入OpenAI。后续的发展也印证了这一点,目前的诉讼显示Sam Altman可能在某种程度上将Elon Musk排挤出局了。

郝珂灵:从诉讼及披露的文件得知,当时的OpenAI首席科学家Ilya Sutskever和首席技术官Greg Brockman决定成立营利实体时,面临着由Musk还是Altman担任CEO的问题。起初,他们选择了Musk。但我通过报道发现,Altman私下恳求了相识多年的好友Greg Brockman,指出让Musk这位备受瞩目且不可预测的名人担任这家未来可能拥有超强力量的公司的CEO存在危险。这番话不仅说服了Greg,也让Greg随后说服了Ilya。最终他们改变了立场,希望Altman担任CEO,而Musk则以不当CEO就退出为由离开了。

2.Sam Altman的争议形象与高层动荡内幕

主持人:听起来Sam再次成功说服了别人。这引出了一个问题,你如何评价Sam Altman?

郝珂灵:我认为他是一个非常有争议的人物。

主持人:你刚才的停顿很有意思,那是试图字斟句酌时才有的停顿。

郝珂灵:采访中最有趣的一点是,人们对Altman的评价极其两极分化,要么认为他是堪比Steve Jobs的新一代伟大科技领袖,要么觉得他是一个极具操纵性的骗子。我采访了很多人后意识到,这完全取决于你是否认同他对未来的愿景。如果你认同,你会觉得他非常有说服力,擅长讲故事,在调动资本和招揽人才方面表现卓越,是你身边最了不起的财富。但如果你不认同,你就会觉得自己在被他操纵去支持他的愿景。

Anthropic的CEO Dario Amodei就是典型的例子。他最初是OpenAI的高管,原以为Altman与自己志同道合,但后来渐渐发现两人的想法背道而驰,并感觉Altman是在利用他的才智和技术去实现一个他根本不认同的未来愿景,因此心生反感。我报道科技行业超过八年,报道过Meta、Google和Microsoft等众多公司,但在OpenAI和Altman身上,我看到了前所未有的两极分化,人们甚至无法断定他究竟是绝世天才还是极恶之徒。

主持人:你刚才提到了Dario,我发现真正有趣的是观察人们的言论如何随利益动机变化而演变。我查看了他们所有的公开言论,包括播客和博客文章。Dario曾是OpenAI的研究副总裁,后来去了Anthropic,他们在开发AI上采取了略有不同的方法。早在2017年他还在OpenAI时曾说过,最极端的情况是对AGI毁灭人类的恐惧,从原则上看并非不可能发生,发生人类文明级灾难的概率可能在10%到25%之间。你还提到了离开的OpenAI联合创始人Ilya,我想问的第一个问题是,Ilya为什么要离开?

郝珂灵:这是一个非常好的问题。Ilya在试图解雇Sam Altman的过程中起到了关键作用。随着时间推移,他也渐渐觉得自己被Altman操纵去贡献他不认同的东西。

主持人:你是怎么知道的?

郝珂灵:因为我采访了很多人。Ilya深切关注两大支柱:一是确保实现AGI,二是确保安全实现它。他认为Altman正在积极破坏这两件事,在公司内部制造混乱的环境,让不同团队互相竞争,对不同的人说不同的话。

主持人:你和他谈过吗?

郝珂灵:我曾在2019年为撰写OpenAI人物专访采访过他。

主持人:当时他说过一段话:“无论如何,AI的未来会很美好。如果对人类也美好那就太好了。这并不是说它会主动憎恨或伤害人类,而是它会变得极其强大。就像人类对待动物那样,我们并不是因为讨厌动物才修高速公路,只是因为修路对我们很重要,所以我们不会去征求动物的许可。默认情况下,这就是未来我们与AI的关系,它们将真正自主并代表自身利益运行。”

郝珂灵:我觉得我们应该退一步思考:究竟什么是人工智能?我们所说的智能又是指什么?这很大程度上源于个人对“智能”的特定信念。在Ilya的整个研究生涯中,他和他的导师Geoffrey Hinton一直假设我们的大脑归根结底是巨大的统计模型。基于这种假设,他们坚信构建基于统计模型的AI系统最终会带来像人类一样甚至超越人类的智能系统。

Ilya曾在一个AI研究会议上展示过一张图表,显示大脑容量与物种智力大致呈正相关。对他而言,既然大脑只是统计引擎,那么只要构建一个比人脑更大的统计引擎,它就会变得更加智能,届时我们将遭受与动物相同的待遇。但必须明白,这只是AI研究社区内特定个体的科学假设,关于它是否属实存在很大争议,主要的批评者认为将大脑简单视为统计引擎是非常片面的。

主持人:为什么了解其机制如此重要?难道仅仅了解结果还不够吗?比如它能为我制作视频,或者智能体能够完成我的工作。了解其背后的机制对我们来说真的那么重要吗?

郝珂灵:既重要也不重要。重要是因为这些公司正基于这一假设来采取行动。他们认定追求AGI需要不断构建越来越大的统计模型,这带来了全球性的后果:他们疯狂搜刮数据、建设数据中心,甚至剥削劳动力。

我认为有一个关键问题需要反思:我们为什么要努力构建替代人类的AI系统?当下的对话似乎默认了AI行业的前提就是好的,他们说该构建AGI,我们就跟着附和。纵观历史,技术的初衷始终是为了增进人类福祉,而不是取代人类。我对这些公司和科学家的核心批判就在于此:他们全盘接受了这个目标,并利用巨额资本和庞大资源不懈追求。这真的是正确的目标吗?为什么我们不能只构建那些能加速药物研发、改善医疗成果的AI系统呢?那些系统与他们试图复制人类大脑的统计引擎完全是两回事。

主持人:那么他们为什么要这么做?你采访了大约300人,其中有八九十人来自OpenAI。你认为他们执意如此的原因是什么?

郝珂灵:我认为是因为他们受一种帝国议程的驱动,所以我称这些公司为AI帝国。

3.AI帝国议程设置

主持人:你所说的“帝国议程”具体是什么意思?

郝珂灵:“帝国”是我发现唯一能完全概括这些公司运作规模及背后动机的词汇。当下的AI帝国与旧时代帝国有诸多相似之处:

首先,为了训练模型并建立超级计算设施,他们大肆圈地,侵占属于个人的数据以及创作者的知识产权;其次,他们在全球雇佣了数十万名工人来制造这些技术,却将工具设计为以劳动力自动化为导向,这种政治选择严重侵蚀了劳工权利;最后,他们垄断了知识生产,对外制造出只有他们才真正懂AI的假象。如果公众不喜欢,他们就归咎于公众了解不够。他们不仅以此对付公众和政策制定者,还收买了绝大多数研究AI局限性和能力的科学家。

主持人:你认为他们在某种程度上是在对公众进行情感操纵吗?

郝珂灵:没错。试想一下,如果全球大多数气候科学家都由化石燃料公司资助,我们还能了解气候危机的真相吗?同理,AI行业雇佣并资助了世界上大多数AI研究人员,通过将资金注入他们优先考虑的项目来柔性设定研究议程。当研究人员的发现不利于他们时,他们就会进行审查。

我在书中提到过Google伦理AI团队前共同负责人Timnit Gebru博士的案例。她被雇佣的初衷是对Google的AI系统提出批评,但当她合作撰写了一篇揭示大语言模型如何导致有害后果的论文后,Google为了阻止论文发表,不仅解雇了她,还解雇了另一位共同负责人Margaret Mitchell。这就是他们控制并压制不利于帝国议程研究的手段。

主持人:这种情况是否也发生在了向他们提问的记者身上?我曾看过你的一个视频,里面有个年轻人提到,某家大型AI公司的人直接敲开他家的门,索要电子邮件和短信等信息。

郝珂灵:确实如此。OpenAI曾传唤部分批评者,这既像是一场恐吓,也像是一场旨在摸清批评者网络的“钓鱼”行动。那是一个经营小型非营利监督机构的年轻人。在OpenAI尝试从非营利组织向营利性企业转型的关键时期,许多像Mitos这样的公民社会团体试图阻止这一过程暗箱操作,争取更高的透明度并引发公众辩论。就在那时,有人敲开了他的门,递交了法律文件。这些文件要求他提供所有与马斯克可能涉及的沟通记录。这反映了OpenAI一种奇怪的偏执,他们认定马斯克在资助这些人阻挠公司转型。但实际上,他们中没有任何人受马斯克资助。所以面对这个请求,他只能无奈地表示自己拿不出任何文件,因为这些沟通根本就不存在。

主持人:你刚才提到,帝国的特征之一是土地掠夺,接下来的一个是劳动力剥削,第三点是控制知识生产。

郝珂灵:关于这些AI帝国,另一个非常重要且需要理解的特点是,它们总是拥有一种叙事方式。它们对公众宣称:“我们是正义的帝国。首先我们需要成为一个帝国,因为世界上还存在着邪恶的帝国。如果你们允许我们获取所有资源并使用所有劳动力,我们承诺将为每个人带来进步与现代化,带大家进入类似于AI天堂的乌托邦状态。但如果邪恶帝国抢先一步,我们将坠入地狱。”

主持人:那么这里的邪恶帝国是指?

郝珂灵:实际上在早期,OpenAI曾将Google视为邪恶帝国。所以他们所有的决策都围绕着:“我们必须抢先一步,否则Google这家受利润驱动的邪恶公司就会胜出,而我们是一家仁慈的非营利组织。”他们认为这是一场关乎谁能胜出的关键竞争。

主持人:你认为那些建立这些AI公司的人,真的相信结果会造福每个人、开启一个富足的时代吗?你觉得他们到底相信什么?或者说,你认为Sam Altman真正相信的是什么?

郝珂灵:这太有意思了。他们围绕AI行业构建的神话中,有一个核心部分就是他们相信事情可能会变得非常糟糕,这两者是相辅相成的。他们需要这部分神话来为自己辩护:“这就是为什么我们需要掌控这项技术,因为这是确保它顺利发展的唯一途径。”

Altman曾公开表示,最坏的情况是所有人都玩完,但最好的情况是我们治愈了癌症、解决气候变化并迎来物质极大丰富。Dario Amodei也是同样的辞令,声称最坏的情况是对人类造成生存性伤害,最好的情况是实现人类的大规模繁荣。这如同硬币的两面,他们必须同时利用这两种叙事,为一种极其反民主的AI开发方式持续辩护,主张这种技术的开发不应有广泛参与,他们必须在每一步都将其牢牢掌控。

主持人:Sam Altman发了一条推文说:“有几本关于OpenAI和我的书即将出版。我们只参与了其中的两本。没有哪本书能做到事事准确,尤其是当某些人执意要歪曲事实的时候,但这两位作者确实在努力尝试。”你转推了那条推文并写道:“那本未点名的书正是我的作品。”你认为Sam Altman那条推文是指向你的书吗?

郝珂灵:100%确定,因为目前只有三本关于他的书即将出版。他知道我的书要出版,因为我从创作伊始就联系了OpenAI询问他们是否愿意参与,事实上他们最初也答应了。我与OpenAI的渊源在于,2019年我曾为MIT Technology Review撰写过该公司的深度报道,在他们办公室进行了为期三天的嵌入式采访。

我的人物专访在2020年发布后,领导层对此非常不满。在我的书中,我实际引用了一封Sam Altman发给全公司的邮件,他在信中明确表示那篇报道不太妙。从那时起,公司对我的态度就是拒绝参与我做的任何事情,不回应任何采访请求。整整三年时间,他们都拒绝和我交谈。后来我去了Wall Street Journal,因为是顶级大报,他们感到有些被迫重新开启沟通渠道。每当我写完文章发给他们请求评论或采访时,我们确实建立了一种更具建设性的关系。

后来我离职全职写这本书,立刻告诉他们希望继续这种建设性对话,以确保书中能准确反映OpenAI的观点。他们答应安排采访,但在我们反复沟通安排日程时,董事会解雇了Sam Altman。从那时起情况开始恶化,公司对外界的审视变得非常敏感,开始采取拖延战术。我一直追问重新安排面试的事情,结果收到邮件说他们根本不打算参与了。当时我已经订好了飞往旧金山的机票,我告诉他们没关系,我依然会按照流程发送详尽的置评请求。我发了40页的置评请求,给了一个多月的时间让他们回应。就在我们反复交涉时,Altman发布了那条推文。他们从未对那40页中的任何一页做出过回应。

主持人:Sam Altman上过每一个播客,从Tucker Carlson到Theo Von、Joe Rogan等世界各地的节目。我在想他为什么不接受我的采访。我觉得我对每个人都很公平,只问我真正关心的问题,不会带着很深的成见进来,也不会让任何人难堪,即使我有不同的意见也是如此。回到你之前提到的关于OpenAI和这些公司控制研究的方式,你问过他们是否对记者也这样做。显然他们对任何拥有广大大众传播平台的人都会这么做。这不仅关乎你与他们的对话,还关乎你选择让谁登上你的平台。

郝珂灵:确实如此,而且我认为普通大众并没有真正理解这一点。科技新闻领域存在一个巨大的问题:公司深知他们能给科技记者的一个巨大诱饵就是准入权。一旦他们察觉到你在和他们不希望你接触的人交谈,他们会毫不犹豫地撤回这种准入权。

主持人:AI领域有一个特定的团队,基本上用准入权作为诱饵吊了我们大约18个月。我的态度是无论有没有好处,我想跟谁谈就跟谁谈。如果有机会交流,我会带着强烈的好奇心请教他们的工作和动机。但他们的全部策略就是永远在前面挂着一根胡萝卜,认为只要用资源诱惑,记者就会表现得客客气气,不会提出批评,也不会为批评者提供平台。

郝珂灵:这是他们运作机制中非常重要的一部分,利用这些策略来粉饰公司的公众形象,并确保不利的信息和观点不会流传出去。我现在非常庆幸OpenAI很早就对我关上了大门。当时我并不觉得这是一种幸运,甚至觉得自己把事情搞砸了,反思我是不是应该在人物专访里对他们更客气一点,好让自己能维持获取信息的渠道。但作为一名记者,产生这种想法简直是种耻辱。记者应该报道事实,并且始终为了公众利益进行报道。那扇正门永远不会对我敞开,这反而极大地增强了我实话实说的能力。无论公司喜欢与否,我只客观汇报呈现在我面前的事实。他们不需要为我敞开大门,我依然完成了300多场采访。

主持人:Sam Altman被踢出了OpenAI的执行团队,你查清楚那是为什么了吗?消息来源是谁?

郝珂灵:是的,我还原了当时的场景。大约有六到七个人直接参与了决策过程,或者曾与直接参与决策的人交谈过。当时Ilya Sutskever看到Altman的行为正导致公司研究成果不佳以及决策失误,于是他去找了独立董事Helen Toner倾诉。由于担心被Altman发现会面临严重后果,Ilya在第一次见面时含糊其辞,试图摸清情况并判断对方是否值得信任。确认之后,Ilya主动与Helen交流,了解她是否也观察到了Altman对公司产生的负面影响。随后,首席技术官Mira Murati与部分董事会成员也进行了沟通。

这两位高管通过汇总的电子邮件、Slack消息等文件资料,向三位独立董事传达了对Altman领导能力的深切担忧,指出他给公司制造了太多的不稳定性,挑拨团队互相竞争,破坏了员工之间的信任,导致大家无法为这项重要技术进行有效协作。

主持人:你提到“不稳定”,这是一个相当模糊的词,可能意味着通过施压让员工更努力地工作。你所说的不稳定具体是指什么?请尽可能详细地说明。

郝珂灵:当ChatGPT问世时,OpenAI完全没有做好准备。他们没预料到会引起巨大轰动,原以为发布的只是一个研究预览版,旨在收集数据启动飞轮,为日后搭载GPT-4的真正产品提供参考。由于流量远超预期,服务器经常崩溃,他们必须以前所未有的速度扩展基础设施并疯狂招聘。

但扩张过快也导致了决策失误,公司频繁裁员,员工经常突然从Slack上消失,同事们只能通过这种方式得知他人离职。那是一个极度混乱的高压环境。最重要的是,Mira Murati和Ilya Sutskever觉得Altman让情况变得更糟了,他实际上在播种更多的混乱,让团队变得更加分裂。高管和独立董事们都在构建AGI的理念下运作,他们认为这项技术对人类要么是毁灭性的要么是乌托邦式的。在他们看来,绝对不能在如此混乱高压的环境下,去创造一项足以决定世界成败的技术。董事们私下讨论时也认为,虽然在Instacart这样的普通初创公司,这些行为未必足以解雇CEO,但OpenAI肩负的使命完全不同,这些问题已经达到了必须撤换他的标准。

此外,独立董事Adam D'Angelo在旧金山参加派对时听到传闻,指出OpenAI创业基金的设立方式有些蹊跷。独立董事们查阅文件后震惊地发现,OpenAI创业基金竟然是Altman个人的基金。这些事件让董事们意识到,Altman对外描绘的愿景与实际执行情况之间始终存在着严重的不一致。

当高管们带着担忧找到董事会时,双方的观察完全吻合。经过每天密集的会议商讨,他们最终得出结论必须罢免Altman。为了防止Altman察觉后利用其极强的说服力扭转局势,他们决定必须迅速行动。于是,他们在没有提前告知任何利益相关者的情况下秘密解雇了Altman。作为OpenAI领投方的Microsoft直到行动前才接到电话通知。这种将所有利益相关方排除在外的做法激怒了所有人,这也直接导致了随后那场迎回Altman的行动,几天后他便重新出任CEO。

主持人:一家大公司的CEO是如何因为董事会成员而被董事会解雇的。在你的书第357页有一段引言,你提到Ilya曾说过:“我不认为Sam是那个应该掌控AGI启动按钮的人。”现在我也在问自己这个问题。我和这里的很多人一起工作,我们公司有150名员工,这些人最了解我。他们看到镜头前的我,也看到镜头后的我。如果他们说“我们认为Stephen不适合主持《Diary of a CEO》”,能让他们说出这种话一定是发生了非同寻常的事情。他们肯定在镜头之外见识了一些糟糕的情况才会认为我不适合出现在镜头前。

而在AI领域,其影响远比一个播客节目深远得多。想到一家公司的联合创始人去找董事会说“他不适合领导这个至关重要的项目”,简直让人不寒而栗。而且不仅仅是Ilya,Mira Murati随后也表示不认为Altman是合适的人选。随后他们两人都离开了。接着Altman回归了,Ilya再也没有回来。他之前担心被Altman发现会对自己不利,这种顾虑最终变成了现实。

郝珂灵:Mira Murati也在那之后不久离开了。这些人中相当一部分都离开了OpenAI,不是吗?回顾OpenAI的起源故事,它始于硅谷核心地带Rosewood Hotel举行的一场晚宴,那是Elon Musk来湾区时最喜欢的去处之一。Altman打算在那场晚宴上招募最初创立OpenAI的元老团队,他到处跟人说Musk会来参加。他给Ilya发了冷邮件并成功邀请了他,因为Ilya特别想见Musk。他还给Greg Brockman、Dario Amodei等人发了邮件,这些人最终都去了OpenAI工作。但在与Altman发生冲突后他们几乎所有人都离开了。Ilya离开后创办了一家名为Safe Superintelligence的公司。

主持人:这真是我听过最委婉的影射了。如果有人和我共同创办了这个播客,离开后又创办了一个名为“安全播客”的节目,我会觉得这是一种轻蔑。

郝珂灵:每一位科技亿万富翁都拥有自己的AI公司,这绝非巧合。他们想要按照自己的形象来创造AI,这正是他们一直相处不睦的原因。共事之后他们最终反目成仇,各自独立建立了自己的组织。Musk离开后创立了xAI,Dario创立了Anthropic,Ilya创办了Safe Superintelligence,Mira创办了Thinking Machines Lab。他们希望掌控自己对这项技术的愿景,从将愿景投入市场的经验中他们得出的最佳途径就是创建一个竞争对手,与OpenAI及市面上所有其他公司展开竞争。

主持人:你是否认为有些AI公司已经意识到自己简直就是在“召唤恶魔”(正如Elon Musk十年前所说),但他们其实并不在乎?因为成为召唤恶魔的人会让你变得举足轻重、权势显赫并名垂青史,哪怕有20%的概率会导致可怕的后果。Dario曾说过大约有10%到25%的概率事情会向着人类文明规模的灾难性方向发展。25%就是四分之一的机会。如果在只有四个弹巢的左轮手枪里装进子弹,说代价是脑袋挨一枪但可能成为亿万富翁并被永远铭记,我绝不会去冒这个险打这个赌。

郝珂灵:这完全取决于如何定义“召唤恶魔”。AI行业利用了一种神话体系,“召唤恶魔”是说服所有人的关键环节,旨在让人相信只有他们才是唯一能开发这项技术的人。

这意味着必须由他们来做,且公众必须给予资金和支持。所以当他们说这些话时,我们应将其理解为一种言语行为,旨在说服他人让渡更多的权力和资源。这并非基于事实做出的真实预测,因为他们不是在预测未来而是在创造未来。他们是在刻意向公众营造这种氛围,这是其权力的核心组成部分。

至于他们是否意识到这已经对全球弱势群体产生了极其严重的负面影响,也许有也许没有,但他们其实并不在乎。我有时用《沙丘》来类比AI世界。故事中保罗厄崔迪步入了一个早已播种在星球上的神话,他利用救世主降临的理念来控制民众。起初他深知这只是个神话,但随着全身心投入并成为其化身,界限开始模糊,他分不清这究竟是神话还是自己真的是救世主。

我认为这正是AI领域正在发生的事情。这些高管在积极进行神话塑造。我掌握的内部文件显示,他们非常敏锐地意识到如何通过令人眼花缭乱的技术演示吸引公众,精心设计完美的使命感让人们对公司更宽容。他们中的许多人也沉溺于这个神话中,因为他们必须日复一日地体现这个神话。当Dario说有10%到25%的灾难概率时,他正积极参与并迷失在神话塑造中。由于需要筹集天文数字的资金来资助AI研究和建设数据中心,他们无时无刻不在融资。你不能一边筹款一边说“我有25%的可能性毁掉你孩子的未来”。大脑会产生认知失调,难以同时持有两种冲突的世界观。

主持人:你认为他们中有人比其他人拥有更强的道德准则吗?Dario经常被认为更有骨气,对后果也更有意识。

郝珂灵:我认为这个问题并不重要。即使把所有CEO都换成更有道德感的人也无法解决问题。核心问题是我们已经构建起了一套权力体系,这些公司和高管可以做出影响全球数十亿人生活的决策,而这数十亿人对此没有任何发言权。这并不是公众投票选出一位承诺立法的领导人就能解决的。考虑到这些公司运作的速度、节奏以及庞大的体量,他们完全能够挥霍数亿美元试图扼杀任何阻碍他们的立法,并制定确立自身优势的法案。作为一个社会我们有时过于执着于讨论这些领导人到底是好人还是坏人。

更大的问题是我们创建的治理结构是健全且允许广泛参与的,还是一个将决策权巩固在少数人手中的反民主结构。没有人是完美的,无论谁坐在顶层,都没有能力代表世界上有着不同文化和历史的大多数人做出绝对正确的决定。这就是为什么在历史进程中人类从帝国走向了民主。因为帝国作为一种结构本质上是不稳定的,它不能最大限度地让大多数人过上体面的生活。

4.AI技术进步的初衷与未来

主持人:说实话我觉得我对很多领域都略知一二。

郝珂灵:是的,而且你具备自主学习和获取知识的能力,也有能力自主选择学习内容。人类可以在一个地方学会开车然后立刻将能力迁移到另一个地方。目前的AI模型无法做到这一点。每当自动驾驶汽车转移到新地点时,必须针对该地点进行完全的重新训练。

主持人:但是当一辆自动驾驶汽车或者一台Optimus机器人在工厂里学习到新东西时,所有的设备就都学会了。

郝珂灵:这仅仅是因为它们共享同一个底层操作系统中的AI模型组件。你在训练这个AI模型,然后将它部署到了所有设备上。

主持人:想象一下那样的场景,如果我们人类能够学习所有其他人类所掌握的知识,那将赋予我们难以置信的竞争优势。我的意思是,人类实现这一目标的方式之一就是通过沟通。

郝珂灵:但实际情况可能并非如此,因为系统可能会学到错误的东西。这种情况在现有技术中已经屡见不鲜,所有模型似乎都会学到错误的内容,并且拥有相同的失效模式。相比之下,人类社会的韧性部分源于我们拥有不同的专业知识,也拥有不同的失效模式。

主持人:我认为有时我们对AI模型的标准甚至比对人类的要求还要高。说起来挺奇怪的,我在奥斯汀的台上经常听到人们抱怨:“AI模型有时会产生幻觉。”我心想,难道你没见过人类吗?我随时都在产生幻觉,我几乎不会拼写,也不会做数学题。

郝珂灵:是的,但这更像是在领域初期为了营销这些技术而专门挑选的类比。我们反复使用“智能”来类比,并将这些机器与人类智能联系起来,试图以此衡量它在社会中是否良好、有价值或有能力。

主持人:但我认为输出结果才是影响最深远的东西。即便它拥有一个完全不同的系统,关键在于它是否达到了同样的水平。比如,它能否为大脑进行手术?能否开车?在洛杉矶,我的车就是自动驾驶的,我可以好几个小时不用碰方向盘。在奥斯汀,我前几天刚见过取消了方向盘和踏板的全新CyberCab。我觉得它是否使用了不同的系统并不重要,如果它在现实世界中行驶且拥有比人类更高的安全记录,那么无论是否具备所谓智能,对我而言都是可以接受的。

郝珂灵:但这并不是你最初提出的论点,即这些系统将基于预测,在不同领域普遍变得更加智能。

主持人:这也是目前所有AI领域大咖都在做的预测,包括Ilya、Dario、Elon、Zuckerberg、Altman和Demis。

郝珂灵:你知道所有这些预测的共同特征是什么吗?他们从这个神话中获取了巨额利润。

主持人:Elon最近在孟菲斯建造了拥有10万个GPU的巨型超级计算机Colossus,专门用于比竞争对手更快地扩展其Grok模型。

郝珂灵:似乎大家达成了一个共识,即可以通过暴力破解的方式来实现更强大、更通用的智能,并将其出售给人们,用于自动化某些具有丰厚经济回报的任务。

主持人:我听Elon说过,如果你是一名外科医生,学习这些根本没有意义,因为几年之内,Optimus和AI总体上将比历史上任何一位外科医生都要出色。你认为这些预测是真的吗?

郝珂灵:我很确定Hinton曾说过那句名言:未来将不再需要放射科医生。他当时设定了一个期限,而我们现在已经过了那个期限,放射科作为一个职业目前发展得依然很好。

主持人:你认为五年后还会是这样吗?

郝珂灵:这要回到我们为什么要开发技术,以及为什么需要开发AI的问题。对我而言,技术进步的初衷并不是为了发展而发展,而是为了帮助人类。已有大量研究表明,在医疗场景中,对患者最好的结果是让放射科专家将AI模型作为工具和参考输入。正是这种结合实现了对某些癌症最准确、最及时的诊断,从而改善了患者的预后。

主持人:你是否相信在未来几年内,路上几乎所有的车都会实现自动驾驶?

郝珂灵:我不这么认为。

主持人:为什么?

郝珂灵:因为这项技术的工作原理是统计性的。目前AI模型的主要开发方式是统计引擎,即所谓的神经网络,这是一种包含大量密集连接节点的软件,也就是人们常说的参数。你向其中输入海量数据,它通过分析数据找出所有的相关性和模式,机器正是通过这些模式实现自主运行。

在训练自动驾驶汽车时,研发人员会记录大量的视频素材,并雇佣成千上万的人类外包人员为素材中的每一辆车、每一个行人、每一个红绿灯和每一条车道线进行手动标注。这些数据输入AI模型后,模型就能识别这些组件。接着,它被连接到另一个非AI的软件程序,该程序会发出确定性的指令,比如“识别到行人就不准碰撞”或“识别到红灯就停车”。统计引擎的特点在于它是基于概率而非确定性逻辑的,因此系统随时都会出错。从技术上讲,目前根本不可能让它们完全停止犯错。

主持人:在这种情况下,人类犯错的概率难道不比系统高吗?安全记录显示,在Tesla自动驾驶模式下行驶的安全性要比人类驾驶员高出10倍。

郝珂灵:这取决于具体地点,以及Tesla是否针对该特定区域进行过专门的导航训练。

主持人:但人类会醉驾。如果在孟买或越南的某些地方,难道自动驾驶不会更安全吗?

郝珂灵:在那些地方,我并不认为它会更安全。我更愿意由一个一辈子都在当地开车的人来载我。我并不是要反驳在某些经过专门训练的特定地点,AI的安全记录确实优于人类。但你问的是全球或全美国的大多数汽车,我认为这并没有近在咫尺。

主持人:那10年内呢?我曾和Uber的Dara聊过,他确信他的900万名配送员将被自动驾驶车辆取代。

郝珂灵:自动驾驶汽车已经研发超过10年了,但目前公路上自动驾驶汽车的比例又是多少呢?它永远不会达到100%。这在一定程度上已经不再是技术问题,而是社会信任和法律责任的问题。如果自动驾驶汽车撞了人,谁该负责?

主持人:在洛杉矶的一个案例中,由于驾驶员低头捡手机,Tesla和驾驶员都被判定负有责任。就Tesla而言,现在Model Y是全球最畅销的汽车,而且绝大多数车辆都配备了被称为“受监督的全自动驾驶”的功能。那仍然只是部分自动驾驶,因为你必须保持关注。而在奥斯汀看到的新款车上,因为没有方向盘,那是真正的全自动驾驶。

5.AI时代的劳工困境

我想探讨的是,那些声称AI将彻底改变交通、法律和会计行业的预测。你认为会出现大规模的失业潮吗?

郝珂灵:我确实认为就业市场将受到巨大的冲击,我们已经看到了这些影响。这不仅仅是因为AI模型通过自动化取代了这些工作,更是因为开发公司选择的改进方向。很多时候管理层仅仅因为认为AI可以取代员工就决定裁员,无论模型的能力是否真的达标,他们宁愿要一个价格便宜且够用的模型。有时他们只是在招聘上犯了错导致团队搞垮,而AI成了一个非常方便的借口。

比如Klarna的CEO曾解雇了一大批人,以为可以用AI取代所有人,结果行不通又不得不请人回来。我专门就这件事给Sebastian发了私信,他说媒体误解了他的推文,他们正比以往任何时候都更加倍投入AI。由于AI的应用,Klarna的员工人数正以每月近一百人的速度缩减,从七千四百人的峰值降到了三千人左右。AI处理了他们70%的客服对话,因为软件的生产成本几乎降到了零。就像代码现在由机器生成一样,最终我们会为那些独特的人造成果支付比以往更高的报酬。Klarna作为一家银行,人们希望与有感情、能引起共鸣甚至带有瑕疵的人建立联系,而不仅仅是机器。因此他们需要在推进AI自动化的同时提供极易获取的人性化体验。

主持人:你看到Anthropic本周发布的报告了吧?简而言之它的内容和你刚才说的很吻合。Anthropic深入研究了人们究竟是如何使用他们的模型的,发现初级职位的数量减少了40%。他们在网上疯传的图表预测,虽然建筑和农业等物理世界的实体工作尚未受影响,但行政、金融、数学、法律和医疗保健等领域将首当其冲。包括媒体和艺术领域,这么看我快彻底完蛋失业了。

郝珂灵:显然他们非常关注助理类和管理类的工作。目前存在两种二元对立的叙事:一种是AI将取代每一份工作,另一种是AI实际上并不起作用。事实是AI确实正在取代工作。每一波自动化浪潮都会用自动化取代大量入门级工作,同时创造新的岗位。

但这些新岗位分为两类:一类是技能要求和报酬更高的高阶职位;另一类则是变得糟糕得多的底层岗位。比如很多营销人员被解雇后,最终去数据标注公司工作,专门教导AI模型去自动化他们刚刚失去的那个岗位。如果该模型掌握了那项技能,又会导致更多的裁员。这成了一个吸收失业人群的去处,甚至包括好莱坞一些屡获殊荣的导演也在秘密从事数据标注糊口。这打破了职业晋升阶梯。入门级和中层职位被掏空,取而代之的是极少数的高阶职位和大量更低阶的职位。阶梯上已经没有横杆了,人们该如何继续职业晋升呢?

主持人:我实际上也不知道答案。我一直在拼命为我的观众寻找最佳答案。大家听到了许多不同的说法,比如Jack Dorsey发推文称因为AI的缘故正将员工人数减半,大家不知道什么是真实的,也不了解其公司内部的经济状况,这或许只是为了让投资者觉得他们是AI公司从而拉升股价的借口。

我自己有数百名团队成员,投资了大概七十家公司,我也把自己当作招聘负责人。过去一个月里我遇到过文化契合度非常好的候选人,但我不得不陷入深深的思考。因为当我尝试让AI智能体去完成完全相同的工作时,尤其在一个开放的Claude世界中,答案正日益趋向于可以。

郝珂灵:现在你面临这样一个抉择:在短期内你完全可以选择AI智能体,但从长期来看职业晋升阶梯将不复存在。你会提拔什么样的人进入高级职位?你是如何在自己的公司里解决这个问题的?

主持人:这是一个好问题。关于这一点,我大概有两种思考方式。我认为深厚的专业知识非常有价值。如果你现在是潜在的AI Agent编排者,关键在于对该问什么样的问题有深刻理解,而这正是拥有深厚专业知识的人所具备的。如果我的CFO要负责协调智能体团队执行财务分析等任务,她需要明白如何指挥它们在公司内开展工作,一名实习财务分析师是做不到的。他们需要像Claire那样拥有五十多年的丰富经验。另一方面,我需要像Kaz这样的人。25岁的日本小伙Kaz对AIAgent了如指掌,他好奇心极强,周末都在构建AIAgent来解决生活中的问题。

我需要这两种非常精通的思维方式。一种是代理效能最大化(Agent Maxing),这类人通常是年轻人,他们必须全身心投入且拥有极强的好奇心,这在我的业务中产生了力量倍增器的效应;另一种就是深厚的专业知识。除此之外,我还想到了第三类群体,就是拥有极强线下社交技巧的人。我们在现实生活中确实需要与人见面,比如迎接来访客、与大客户共进午餐并进行应酬。我们的团队有很多线下活动,同时也在全球各地举办社区活动,所以我们需要擅长在线下将人们聚集在一起并组织事务的人才。这三类人是我认为目前无法被取代的。

郝珂灵:如果那些可以由AI智能体承担的角色都被取代了,按照目前的轨迹继续发展下去,你认为是否还能保留这三类角色,以及从中选拔、晋升人才的储备库,以完成长期所需的这三项关键任务?

主持人:有人断言即使是那些角色也会感受到压力。如果你把事物的发展看作指数级的进步,甚至只是10%的复合增长率进步,在某个时刻我认为剩下的实际上是不可替代的人类特质,也就是人与人之间面对面交流的马斯洛需求。这一点不会改变,我们需要连接。当人类生活中缺乏他人的连接和深厚的关系时,会变得非常痛苦。

我有一个不同寻常的观点,我认为AI可能是第一种能真正兑现承诺、让我们回归人性并建立连接的技术。因为除了人类擅长的事情外,我们在其他任何事情上都将变得毫无用处。以往的其他技术曾宣称要让我们与世界建立更多连接,结果却切断了联系,使人们陷入孤立。但也许AI现在已经足够智能,不再需要我们去折腾电子表格。

郝珂灵:你是否看到这一切正实时发生?它是否正让我们更有能力进行面对面交流,与彼此建立联系,并拥有更深层次的社会社区参与?

主持人:是的。我会给你提供一些数据点。《金融时报》发布的一份关于社交媒体使用情况的报告显示,2022年是巅峰期,此后一直处于平台期,其中下降最快且进入平台期的是年轻一代,而婴儿潮一代依然活跃。

如果你看看Alpha世代使用社交媒体的方式,他们发帖不再频繁,甚至出现了零发布(PostingZero)的现象。他们有时刷动态,但更多是待在WhatsApp、Snapchat和iMessage这种暗社交环境中,不再像以前那样向全世界展示或表演自己。他们也比以往任何一代人都更看重线下体验,比如跑团(RunClub)正在全球范围内爆发式增长。

这几乎反映出人们内心深处察觉到技术在某些根本层面上让我们失望了。我们正在目睹社会可能出现的两极分化,许多人正趋向于回归作为人类最本真的样子。我可以想象在这样一个世界里,智能已经进化到极高的程度,以至于我们不再需要坐在笔记本电脑前,屏幕使用时间将会持续下降。当走进办公室时,你看到的将不再是围坐在电脑前的人们,而是完全不同的场景。

另外,马斯克说未来将会产生100亿个Optimus机器人。他在时间预测上出过错,但在重大事项上几乎从未彻底错过。我已经请了一些来自波士顿动力以及ScaleAI等公司的专业人士来展示机器人叠衣服和洗碗等技能。我认为工厂的大量体力劳动将发生彻底改变,我们将被迫去做那些只有人类才能做的事情。

刚才Klarna的首席执行官Sebastian给我打来电话,分享了他们业务和AI Agent的最新进展。他提到,他们很早就利用AI支持客户服务,不仅处理了更多通话,速度和质量也得到了客户的认可。他们相信在一个AI廉价且普及的世界里,人类互动的价值会更高,因此客户服务的VIP体验将由真人提供。在公司内部,他们通过AI实现了效率提升,避免了裁员,而是通过自然流失将人员规模从6000人缩减到不到3000人,同时营收却翻了一番。去年年底更是出现了重大突破,许多顶尖工程师认为编程问题已经被解决,人们不再需要亲自编写代码了。当被问及这些被解放出来的人都去干什么时,他表示长远来看,他对于AI对社会和人类的积极意义持乐观态度,认为我们将迈向一个更富裕的社会。听了这些,你有什么想法吗?

郝珂灵:其实在他打电话过来之前,我对你刚才说的话确实有一些想法。你提到Z世代有这样一种趋势,他们正在脱离技术,变得更加注重面对面交流;而另一类工作者实际上在拥抱技术,正因为拥抱了技术反而变得更具人性,因为他们意识到应该把更多时间花在面对面的人际互动上,而不是盯着屏幕。

但我真的很想回到刚发表的那篇《纽约杂志》的文章上。你所描述的情况只适用于一类非常特定的人群,通常是公司内部的业务所有者和领导层,他们可以决定如何分配和利用时间。但这篇文章探讨的是工人阶级,那些非业务所有者的普通人经历了裁员后,被迫转投数据标注行业。顺便一提,数据标注现在是LinkedIn上增长最快的十大职位之一。数据标注就是教这些AI系统实现它们最终展现出的功能,比如向大语言模型输入提示词并示范该如何回答,在完成这些训练之前,ChatGPT并不存在。这就是强化学习过程的一部分。

《纽约杂志》的文章强调,许多被裁员或正在艰难找工作的人,包括大学毕业生、博士、律师、医生甚至屡获殊荣的导演,由于经济已被AI深度重构,他们很难在体系中找到新工作,只能服务于这个设计得极其不人道的行业。

OpenAI、Grok和Google等公司会雇佣第三方数据标注公司,而这些第三方公司为了以最低成本和最快速度完成任务,就有动力让工人之间相互竞争。接受采访的工人都表示,他们实际上已经失去了作为人的能力。他们只能守在笔记本电脑前等待Slack上的任务提醒,因为这是他们养家糊口的唯一生计。一位女性提到,她对项目起止时间感到极其焦虑,当任务窗口期刚好在孩子放学回家时,她必须疯狂刷任务赚钱,甚至因为孩子分散了注意力而大吼大叫。她觉得自己变成了怪物,连上厕所或照顾自己都不被允许。

这个不断吸纳被裁员工的行业,正在将他们的生活机械化、工作原子化,贬低他们的专业知识,并收割成果来维持这台机器的运转。然而所有AI高管却在宣称,这台机器将取代其他所有人的工作。

所以正如你提到的,那些因为AI处理了繁杂任务而变得“更像人”的企业主们,实际上是以绝大多数正在挣扎求生的普通人的利益为代价的。这些普通人被吸纳进为企业主提供技术支持的工作中,他们不仅没有变得更具人性,反而觉得本人的人性被挤压和削弱了,在生活中丧失了自主权和尊严。

主持人:我认为这是一个重大问题。如果我们相信Anthropic对行业颠覆的预测,艺术、媒体、法律、生命与社会科学、建筑、工程、计算机、数学、商业金融以及行政管理等领域的人员,都将不得不重新接受技能培训。与工业革命有十几二十年的缓冲期不同,AI建立在开放的互联网之上,这使得ChatGPT能迅速获得数亿用户并成为史上增长最快的公司。我担心这种颠覆发生的速度快到让我们根本无法完成转型。

郝珂灵:但谁在推动这种速度?是那些公司,以及它们彼此之间的竞争。它们正在推动这种转变以极快的速度发生,在这种速度下很难照顾到所有被其碾压的人。这是最疯狂的问题之一。当我与这些AI公司的首席执行官们坐在一起时,没有人能回答我的问题。我会问:“如果这一切真的以超高速发生,那么人类将会怎样?”

主持人:我曾与一些企业的CEO交流过,比如Uber的Dara也表达过类似的看法。他认为未来会产生一些诸如数据标注的工作,可以提供给司机们。但问题在于,不可能所有人都去从事数据标注,这还涉及人生意义、目标和成就感缺失的问题。

是的,很多人在失去原有工作后,自尊心会遭受沉重打击。我曾听过许多案例,比如一些人在家乡原本是医生,来到美国后却只能从事厕所清洁工等工作,这种社会地位的巨大落差往往会引发抑郁和酗酒问题。如果这种现象在全社会大规模发生,后果将不堪设想。

郝珂灵:这也是我一直批评这些AI公司的原因。他们创造技术的方式,正在以前所未有的极端形式制造“拥有者”与“缺失者”之间的鸿沟,加剧了世界的不平等。拥有资源的人将积累更多财富,拥有更多闲暇,活得更像一个“人”;而没有资源的人则受到更严重的挤压。

主持人:这种挤压似乎不仅仅体现在工作层面?

郝珂灵:没错,我在书中也谈到了环境和公共卫生危机。这些公司在选址建造庞大的超级计算机设施时,往往专门挑选最脆弱的社区。例如,OpenAI正在德克萨斯州阿比林建设大型数据中心,这是Stargate计划的一部分,该计划耗资5000亿美元。建成后,其耗电量将超过1吉瓦(GW)。

主持人:我看到网上有一些关于这类设施规模的讨论。

郝珂灵:有些数据需要更新。比如Meta在路易斯安那州建设的超级计算机设施,规模将是阿比林基地的四倍,面积相当于曼哈顿岛的五分之一,电力消耗将达到纽约市平均需求的一半。

当这些设施进入社区,会导致公用事业用电增加、电网可靠性下降。此外,设施运行和冷却需要大量淡水,这让本就缺水的社区处境更加艰难。在田纳西州的孟菲斯,马斯克为训练Grok建造了Colossus超级计算机,使用了35台甲烷燃气轮机供电。当地居民甚至在自家客厅就能闻到煤气味,他们的空气权益正被剥夺。

主持人:听起来,那些被归类为“无产者”的人,处境会变得糟糕得多。

郝珂灵:是的。在硅谷描绘的愿景中,这些人从事的数据标注工作,实际上是被当作机器而非人类来榨取价值。他们不仅面临职业被颠覆的风险,还要承受生活成本上升、空气污染和资源竞争。这如何能让人类变得更具人性呢?

6.探寻出路:打破垄断与AI的自行车路线

主持人:那我们应该如何应对这种情况?

郝珂灵:我常把AI比作“交通运输”。交通工具涵盖了从自行车到火箭的所有类型。如果我们为了从A点到B点而动用火箭,资源投入显然是失衡的。目前的主流AI模型就像是“火箭”,能耗惊人且开发成本极高。

我们为什么不制造更多AI领域的“自行车”呢?比如DeepMind的AlphaFold,它通过小型且精选的数据集预测蛋白质折叠,对药物研发意义重大,并获得了诺贝尔奖。这种系统所需的计算资源和能效要低得多,却能为人类带来巨大益处。

主持人:但现在感觉大势已定,这些公司已经利用大量数据完成了初期训练。

郝珂灵:如果真的尘埃落定,他们就不需要持续训练了。事实是,为了让技术保持相关性,他们需要周而复始地进行训练。这就是为什么随着时间推移,他们雇用的数据标注工人反而越来越多。他们相信可以靠暴力破解(Brute force scaling)的方法,通过堆砌数据、计算能力和能源来提升模型。我报道数据标注工作已经超过七年了,而且这一需求并没有减少,反而增加了。

主持人:你认为它有任何下降的可能性吗?你认为这种利用数据、计算能力、能源以及数据标注员来为模型构建越来越多参数的暴力缩放(brute force scaling)方法,有没有可能停止,或者转向与现状不同的方向?

郝珂灵:我很想换个角度来重新审视这个问题,并思考在热度并未降温的当下,我们应该做些什么。在这个我们确实意识到这些公司目前需要持续的资源输入以及劳动力来延续其业务的时刻,我们能做什么?停止这个词听起来很生硬,因为现任政府和全球范围都在大力支持这些公司。我总是说我们需要打破这个帝国,开发替代方案。目前我们已经看到令人惊叹的草根运动正在蓬勃发展,它们正对这个帝国推行其议程的方式施加巨大的压力。最近的民意调查显示,80%的美国人认为AI行业需要受到监管。

主持人:是的,我看到了。

郝珂灵:所以全美甚至世界各地都已经爆发了数十起针对数据中心的抗议活动。人们正在采取行动,重申自己的主体性,并针对这些帝国经营业务的方式行使民主抗争权。

主持人:那我们应该瞄准什么样的目标?如果我对观众说话,因为我在评论区看到了一种绝望感,他们会觉得我只是个普通人,我能做什么呢?

郝珂灵:我们的目标并不是要彻底摆脱这项技术,而是要求这些公司停止扩张成帝国。我定义的普通企业与帝国之间的区别在于,帝国的立足点是它们认为不需要与员工、用户以及供应链中的所有人进行公平的价值交换。它们不断地榨取和剥削,获取远超其所提供价值的收益。而典型的商业模式存在公平交换,你购买服务会觉得获得的价值与支付的金额是对等的。但对于数据标注工人来说,他们完全不觉得公司支付的报酬能体现出他们提供的价值。

所以指路明灯就是当这些公司以帝国主义方式运作时,我们应该予以反击并追究其责任。这就是我们现在看到的,人们走上街头抗议数据中心,产生了巨大的影响,甚至让一些项目停滞或被完全禁止建设。我们看到艺术家和作家正在起诉这些公司侵犯知识产权,这引发了一场关于如何保护知识产权的大规模公众讨论。

三周前我见到了Sewall Setser III的母亲Meghan Garcia。Sewall是一名14岁的少年,他在被Character AI聊天机器人进行性诱导后自杀身亡。她对儿子的遭遇感到悲痛,并决定采取行动起诉这些公司。这引发了许多有着类似经历的家庭纷纷提起诉讼,也引发了巨大的公众讨论,探讨这些公司的剥削行为对世界各地人们包括儿童造成了怎样的代价。

主持人:那么你认为我的观众如果完全同意你书中的观点,不想让每个人都变成数据标注员,他们实际上能做些什么呢?

郝珂灵:当我写这本书时,当时的舆论只认为这是自切片面包问世以来最棒的事情。但现在有80%的美国人希望监管这个行业。我想对大家说,思考一下你的生活与AI行业维持运作所需资源以及部署空间交织的所有方式。你是这些公司的数据捐赠者,你可以拒绝提供数据,就像艺术家和作家正在做的那样,试图建立机制扣留数据。你身边可能正在建设数据中心,如果你在学校或公司,可能正在讨论AI采用政策。

我刚和一些OpenAI员工聊过,他们公司内部清楚营收目标高得离谱,需要一切进展完美才能实现,需要每个人和每个空间都采用这项技术,需要按预想速度建造数据中心。所以我想对观众说,如果我们不同意他们的所作所为,就别让这一切进展得那么顺利。

主持人:我明白了。

郝珂灵:然后让我们来构建替代方案。我并不是说这些技术没有用处,而是目前专门为了支持这些技术生产而形成的政治经济体系正在对人类造成巨大伤害。研究表明同样的能力完全可以通过资源消耗少得多的高效方法开发出来。我们手头还有许多其他AI系统,它们能以极低成本提供巨大益处。让我们打破帝国垄断,开辟出让所有人广泛受益的AI发展新路径。

主持人:作为一名CEO、创始人和热爱技术的人,我常常要在脑海中处理对立的观点。我认为AI绝对令人惊叹,它赋予我创造的能力简直太不可思议了,它能让我在早上开车时感觉更安全。那十几亿使用ChatGPT等AI工具的人可能会说这为他们的生活增加了价值,我也会投资大量使用AI的公司。但是,我们是否可能在认同其价值的同时,也认为存在重大的意外后果?技术及其发展史本应教会我们停下来讨论这些后果。这两个观念可以同时存在于脑海中。

郝珂灵:是的,我想说这种张力不一定是冲突。我们实际上可以在保留技术益处的同时,以不同的方式开发和设计它们,从而避免意外后果。

主持人:这需要一场广泛的社会讨论,这也是我在这档节目中进行这么多AI对话的原因,我们需要关注社会和环境影响。这场对话并没有在政府层面展开,而是发生在行业内部。在过去的几个月里,我们一直致力于就这一主题启发人们的思想。

郝珂灵:实际上这在行业之外的各个地方都在发生。地方和州级政府已经有了大量讨论。我一直在进行新书巡回宣传,去了全球几十个城市,到处都有人在进行这些至关重要的对话。每场都爆满,每个人都在纠结同样的问题。

主持人:说到现场爆满,我知道你等下还有一场演讲,所以我们进入本播客的结束传统问题:你对一位患有绝症的朋友给出的建议,与你自己的做法会有什么不同?

郝珂灵:这是一个非常好的问题。我会告诉他们去享受生活,为自己而活,放轻松点。

主持人:但你不会这么做的。

郝珂灵:是的,我没法放轻松。

主持人:我认为你不放轻松是一件好事,因为你正在引领一场至关重要的对话。由于算法和信息茧房效应,如今能进行这样长篇的对话非常罕见且重要。你的新书《Dreams and Nightmares in Sam Alt》推荐给所有对此好奇的人。今天我学到了很多。通过你书中广泛且客观的视角、深入的研究,你揭开了故事背后的真相。你显然将人类利益视为北极星,请继续战斗下去。正是你这样的人在激励全世界采取集体行动。强烈建议大家读一读这本书,Karen,谢谢你。

郝珂灵:非常感谢,Steven。

标签: 公司 人类 主持人 技术 数据 帝国 模型 问题 智能 资源 人们 行业 系统 硅谷 公众 领域 方式 情况 社会 能力 全球 大量 世界 科技 利用 利益 产生 员工 团队 定义 职业 职位 大脑

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。