当前位置: 首页 » 资讯 » 科技头条 » 正文

刚刚,Anthropic这个发布太炸了,AI版“不作恶”问世

IP属地 中国·北京 编辑:陈阳 雷科技 时间:2026-05-08 22:58:47

昨晚,AI新贵Anthropic (后文简称为 A 社)并没有发布Claude新模型,而是推出了一个看起来特别「无聊」的东西:The Anthropic Institute(Anthropic研究院,简称 TAI)。

相较于2026年流行的Harness Engineering(驾驭工程)而言,TAI要解决的问题更加宏大。按照 Anthropic 公布的研究议程(anthropic-institute-agenda),TAI重点关注四个方向:经济扩散、威胁与韧性、实际应用中的 AI 系统,以及 AI 驱动的研发。TAI还面向全球发布“英雄帖”,招募研究员一起工作来解决以上这些问题。

(X@Anthropic 官方)

也就是说,A社(Anthropic简称)成立了一个内部组织,主要研究人类如何与AI相处:

AI 会怎么影响就业和经济?

会带来哪些新的安全风险?

人类真实使用 AI 之后,行为和判断会不会改变?

当 AI 开始帮助研发更强 AI,这个加速过程又该如何被理解和约束?

可能很多读者会觉得这不过是个常规的AI企业的动作,但雷科技认为这可能是 A 社近期最值得关注的一次动作。TAI对AI产业以及人类的积极影响,如同谷歌当年提出「不作恶」的这一价值信条之于互联网产业一般。所以雷科技AGI才说,这是一次不亚于重大模型升级的「发布」。

AI深刻影响经济:不只是打工人的饭碗

TAI 的首要研究方向是Economic Diffusion(经济扩散)。

回顾人类历史上的前三次工业革命,无论是珍妮纺纱机、轰鸣的蒸汽机,还是后来的电力和流水线,它们替代的本质上都是极其廉价且重复的体力劳动。然而,AI 掀起的第四次工业革命截然不同,它直接进入了人类最引以为傲的脑力工作区。

而 TAI 指出的核心矛盾便是:工具升级了,打工人的处境反而变得更差了。

在研究文案中 ,TAI 提到,如果未来 3 个人借助大模型,能干完过去 300 人的活儿,这个公司到底会变成什么样?

设计师用 AI 能一键搞定最繁琐的图层和素材,程序员用AI 能Vibe Coding……假定AI能提高75%的工作效率,但这不会让人类工作制从8小时(甚至996)压缩到2小时,相反,人类可能需要多干五倍的活。

TAI 在意的就是「有了 AI,你的工作量就得翻几倍」的新逻辑。为了量化这一情况,TAI 给出了一个新名词The Anthropic Economic Index(Anthropic 经济指数)。A 社表示它们并不会只发布一些没什么人关注的学术论文,而是打算把这套真实数据扒出来,明明白白地告诉人类:AI 到底在哪几个行业里悄悄取代了原本属于人类的岗位?那些初出茅庐的新人们是否会出道即被「淘汰」?

(AI 生成)

不仅如此,TAI 还把这笔账算到了现实世界中。我们都知道大模型是一只永远不会饱腹的「吞金兽」,我们每一次利用 AI 生成文字、图片、视频甚至是一次简单的询问都会烧掉大量Token,Token底层是算力,算力底层是芯片、存储、电力,如果再深究一层还有碳排放、资本等等。资源永远是有限的,当社会将海量资源都倾斜给 AI 时,别的行业一定会受到波及。

2026年,大家最显著的感受是:AI导致的内存与存储短缺直接导致了消费电子普遍涨价,甚至手机厂商也被迫降低了新机推出的意愿。但与此同时,所有手机厂商都寄望于用AI来重塑产品逻辑,延长手机产品生命周期,OpenAI的原生AI手机也已被提上日程。当每个人受益于AI时,更多产业在被AI深刻影响,好的,坏的都有。

而TAI 要用「经济指数」,把AI对经济的影响,从抽象的感知量化成数据模型:只有将问题搞清楚了,才有可能解决问题。

终极危机:人类正在「外包」自己的大脑

如果说丢饭碗是钝刀子割肉,那么AI 对人类大脑思考思维的转变,就是直接伤害。

最先遭殃的,必然是互联网。你不难发现,如今的互联网正在变成一座「屎山」,以前搜旅游攻略能轻松找到不少踩坑避雷的攻略帖,如今却全是 AI 看似制作精美、排版美观但全是一本正经瞎编的废话。

更要命的是,AI将灰色产业的门槛也降到了零:用 AI 换脸造黄谣、克隆亲人声音搞电信诈骗,骗子只是烧掉一些Token就能毁掉普通人的生活。

TAI 还关注到了更深一层的危机:AI 在不知不觉间让人类变得越来越「傻」。

此前曾有中国用户在野外看到不认识的野生菌,随手拍张照发给AI问「这玩意儿能吃吗」,AI 一本正经地把剧毒蘑菇鉴定成「可食用的美味口蘑」;还有小朋友拿着一个老鼠夹问 AI 这是什么,AI 煞有介事地分析说这是一个「方方正正、带有金属结构的废弃卡丁车小玩具」,结果孩子好奇上手一摸,手指被死死夹住。

这些新闻听起来像地狱笑话,但它揭示了一个现象:AI 最大的特点根本不是聪明,而是「迷之自信」。AI 永远无法做到 100% 准确,Google Gemini最新模型大约能做到91%的事实准确度已是高水平。但不少用户却在使用 AI 的过程中潜移默化中放弃了思考,习惯性地把一切决定权都「外包」给了一串代码。

对此,TAI 甩出了一个引人深思的问题:当全社会很大一部分人,都在向仅有的那么两三个大模型寻求建议时,人类群体的思考模式和解决问题的方法,会发生怎样可怕的「同质化」?你以为在用 AI工具提高生产效率和认知水平,实际上是在「外包大脑」。换句话说,如果所有人都开始依赖AI,很有可能会让人类丧失自主思考能力,让全人类的脑子变成同一个模子里刻出来的复制品。

AI呈现双重用途,如何预防智能爆炸?

TAI 还提出了一个新的概念:双重用途(Dual-use capabilities),官方的解释是:如果一个 AI 模型在生物学上的能力变强了,那它不仅能用来研发新药,它同样能用来制造极其致命的生物武器;如果一个 AI 写代码的能力很出色,那它不仅是个好程序员,它同时也成了一个能轻易黑进国家内网的黑客。

(Anthropic 官方)

当这种带有「双重用途」的怪物,大规模接入自动驾驶汽车的大脑、接入工厂的重型机械臂、甚至被接入安防系统和无人机群时,会惹出多大的祸?在手机里,AI会弹出一句「对不起,我做错了」;但在现实里,识别偏差一秒,就是实打实的安全生产事故。

更别说大模型几个礼拜就能迭代一波,但人类去修改一条法规、但人类修改法律、完善保险都是按「年」来算的。这中间空出的时间,就是防御力最低的「裸奔期」。当各种由 AI 引发灾难发生时,如今的社会根本没这个「韧性」去承担。

为了解决这个问题,TAI成立了Frontier Red Team(前沿红队)。这帮人的任务很简单也很抽象:每天变着法子去攻击和引诱自己开发出的AI 智能体,以便摸清这玩意儿在现实世界中到底会带来多大的破坏力,为的就是要在社会这套老旧系统彻底崩溃之前,强行拉起一道防线。

以前,主导AI进化速度的是人类程序员,但如今高级大模型能自己翻论文、写代码,可能在不久的将来就能自己研发新一代大模型,当 AI 自我套娃的速度越来越快,技术的进化马上就要甩开人类的认知。

(AI 生成)

为了应对这个随时可能到来的奇点,TAI 提出了一个新的概念:开展针对智能爆炸的Fire drill scenarios(消防演习)。

简单来说 TAI 准备拉着顶尖实验室的高管以及各国政府来一次沙盘推演:他们要在「智能爆炸」真正发生之前,提前测试人类到底有没有能力踩下刹车。

边发展边治理,A 社严肃地踩了一脚刹车

在这个全行业都在闭眼狂奔的节骨眼上,回过头来看 Anthropic 设立 TAI 的这波操作,确实让人有些「肃然起敬」。

隔壁的 OpenAI 每天登上热榜的的不是高管离职内斗,就是跟马斯克的烂账官司。还有许多 AI 公司业绩惨淡,却一边想法设法“刷榜单”,一边四处融资圈钱,靠着虚高的估值吸纳着社会资本。A社TAI要讨论的话题业界一直都在讨论,但大多数AI巨头的态度却是“管它呢,先发展再说”。在这种极度浮躁的氛围里,A 社却来了一脚刹车,把这些见不得光的烂摊子堂而皇之地摆到了台面上,表明了对AI的新态度:一边发展,一边治理。

A社也不是慈善机构,它不是圣母心爆发,而是在下一盘很高明的商业棋。如今那些手握大权的金主和政府,早就被 AI 引发的各种翻车事故搞怕了:买个模型回去,跑分高一点低一点无所谓,最怕的是它突然发疯惹出大祸,届时根本无法收场。而A 社用 TAI 给自己凹了一个「正常人」的人设,让用户放心,让世界信任。

(AI 生成)

在TAI这篇文章最后其还明确提到:TAI 所有的研究成果和早期预警,都将直接输入给 Anthropic 的一个核心机构——Long-Term Benefit Trust(长期利益信托)。这个LTBT的使命就是死死盯住公司的商业决策,确保 Anthropic 的每一次动作,都是为了全人类的长期利益,而不是追求短期的财报利润。

这跟当年谷歌那句名震江湖的「不作恶」一模一样:通过 TAI,A 社在告诉全世界,当同行都在比谁飙车快时,我们不仅跑得快,我们还在研究怎么刹停。

指望科技巨头自己监督自己,确实有点扯淡,但在现在这个所有人都蒙着眼把油门焊死狂奔的年代,能有一个头部玩家主动成立 TAI 这样的研究院,拿真金白银去搞经济指数、去推演智能爆炸、去研究人类脑子的退化,这本身就值得说道说道了。所以雷科技在开篇就表示,TAI 的发布要比 A 社直接发布一个新模型更重要。

附:TAI官方议程,由Google Gemini翻译

在Anthropic研究所(TAI),我们将利用前沿实验室所能获取的信息,研究人工智能对世界的影响,并将我们的研究成果与公众分享。在这里,我们将分享驱动我们研究议程的问题。

我们的研究议程主要集中在以下四个领域:

经济扩散

威胁与韧性

实际应用中的人工智能系统

人工智能驱动的研发

在《人工智能安全核心观点》一文中,我们指出,开展有效的安全研究需要与前沿人工智能系统密切接触。同样的道理也适用于开展关于人工智能对安全、经济和社会影响的有效研究。

在 Anthropic,我们已经初步看到软件工程等工作正在发生根本性变革。我们正目睹 Anthropic 内部经济结构开始转变,我们构建的系统也面临着新的威胁,人工智能的早期迹象正在加速人工智能自身的研发进程。为了充分发挥人工智能进步的益处,我们希望尽可能多地分享这些信息。我们正在研究这些动态变化将如何影响外部世界,以及公众如何能够帮助引导这些变革。

在 TAI,我们将从前沿实验室的角度研究人工智能在现实世界中的影响,然后公布这些研究结果,以帮助外部组织、政府和公众更好地就人工智能发展做出决策。

我们将分享研究成果、数据和工具,以便个人研究人员和机构更轻松地开展这些研究课题。具体而言,我们将分享:

我们将以更高的频率,从人类经济指数中获取更细致的信息,了解人工智能对劳动力市场的影响和应用情况。我们将努力成为重大变革和颠覆的早期预警信号。

研究在面对人工智能带来的新型安全风险时,哪些社会领域最需要投资以提高其韧性。

更详细地介绍 Anthropic 如何利用新的 AI 工具加快工作进度,以及 AI 系统潜在的递归自我改进的意义。

TAI 将影响 Anthropic 的决策。 这可能表现为该公司与外界分享一些它原本不会分享的数据(例如经济指数),或者以不同的方式发布技术(例如网络威胁分析,这些分析为“玻璃之翼”项目等计划提供了数据支持)。

我们预期,TAI研究所开展的研究工作将日益成为Anthropic长期利益信托基金(LTBT)的重要参考依据。LTBT的使命是确保Anthropic持续优化其行动,以造福人类的长远利益。我们与LTBT以及Anthropic各部门的员工共同制定了这项研究计划。

这是一份动态的议程,而非一成不变的。我们将随着证据的积累不断完善这些问题,并且预计会出现一些今天尚未涵盖的新问题。我们欢迎大家对这份议程提出反馈意见,并将根据我们通过讨论获得的信息对其进行修订。

如果您有兴趣帮助我们解答这些问题,我们欢迎您申请成为Anthropic研究员。该研究员项目为期四个月,由TAI团队成员指导,您将有机会研究一个或多个相关问题。您可以在这里了解更多信息并申请下一期项目。

我们的研究议程:

最后更新日期:2026年5月7日

经济扩散

了解日益强大的人工智能系统的部署如何改变经济至关重要。我们还需要开发必要的经济数据和预测能力,以便选择能够造福公众的人工智能部署方式。

为了解答本研究这一支柱中提出的问题,我们将进一步完善《人类经济指数》中的数据。我们还将探索其他方法,以改进我们关于强大的人工智能如何影响社会的模型,无论这种影响是导致失业、前所未有的经济增长,还是其他方面。

人工智能的应用与扩散

谁在采用人工智能?人工智能的研发集中在少数几个国家的少数几家公司,但其部署却是全球性的。是什么决定了一个国家、地区或城市能否获得人工智能?如果能够获得人工智能,它们如何从中获取经济价值?哪些政策和商业模式能够有效地改变这种现状?自由权重或开放权重模式又如何促进这种动态变化?

企业层面的人工智能应用:企业采用人工智能的原因是什么?其后果又是什么?人工智能如何改变企业或团队能够达到最高效率的规模?人工智能在企业间的应用集中度如何?人工智能应用集中度的变化如何转化为利润率和劳动份额?如果一个3人团队或公司现在能够完成以前需要300人才能完成的工作,产业组织结构将会发生怎样的变化?或者,如果企业能够更容易地集中知识,并且这种做法能够带来规模效益,我们是否会看到规模更大、扩张更广的企业,它们更有动机系统性地监控员工?

人工智能是一种通用技术吗?人工智能是否遵循以往“通用技术”的模式,即在利润丰厚的商业应用中普及速度最快,而在社会回报超过私人回报的领域普及速度最慢?是否存在能够改变这种趋势的政策或决策?

生产力和经济增长

生产力增长:人工智能将对整个经济的创新速度和生产力增长产生什么影响?

分享收益:哪些预先分配或再分配机制可以有效地更广泛地传播人工智能开发和部署带来的收益?

市场交易成本:人工智能如何影响市场中的交易系统和交易成本?何时让代理人代表您进行谈判能够提高市场效率和公平结果?何时又不能?

广泛的劳动力市场影响

人工智能与就业:人工智能将如何改变经济各领域的就业状况?随着人工智能自动化现有经济环节,哪些新的任务和工作岗位可能会涌现?这些变化在不同地区和国家之间又将有何差异?我们的“人类经济指数调查”将每月提供人们如何看待人工智能对其工作的影响以及他们对未来的预期等信息。我们还将更新经济指数,以分享更高频、更细致的数据。

人工智能的普及速度可以调节吗?各国央行通过政策利率和前瞻性指引等“调节手段”来抑制通胀。人工智能公司(在行业层面,与政府合作)是否也可以采用类似的调节手段,逐个行业地控制人工智能的普及速度?这样做是否会带来明显的公共利益?

工作和工作场所的未来

劳动者对工作的看法:各行各业的劳动者如何看待职业变化?他们对这些变化有多大的影响力?“劳动者”的力量能否得到维护或转变?

专业人才培养体系:许多行业都依赖初级职位(例如律师助理、初级分析师和助理开发人员)来培养未来的高级从业人员。如果人工智能取代了以往积累专业知识的工作,那么人们最初又该如何成为专家呢?这对某个领域长期的高级人才储备意味着什么?

面向未来的学习:人们今天应该学习什么才能为未来做好准备?未来的职业有哪些?人工智能将如何改变学习和发展专业技能的方式?

有偿工作的角色:如果人工智能大幅降低有偿工作在人类生活中的核心地位,那么在什么条件下人们才能将时间和精力重新分配到其他有意义的来源?我们又能从历史上或当代那些工作稀缺或可有可无的群体中学到什么?社会又该如何应对这种转变?

威胁与韧性

人工智能系统往往能够同时提升多种能力,包括两用能力。例如,生物学能力提升的人工智能系统也更容易制造生物武器。计算机编程能力强的人工智能系统也更容易入侵计算机系统。如果我们能够更好地理解人工智能系统可能加剧的威胁,社会就能更容易地应对这种变化的威胁形势。

我们提出这些问题,旨在帮助建立合作伙伴关系,以增强世界应对变革性人工智能的能力,并建立针对可能出现的新威胁的预警系统。其中许多问题将指导我们前沿红队的研究议程。

评估风险和两用能力:

双用途技术:强大的人工智能本质上具有双用途性:既能改善医疗和教育的工具,也能用于监视和镇压。我们能否构建可观测性工具,以了解这种情况是否正在发生以及如何发生?

如何合理定价风险:有哪些有效的、市场驱动的方法可以提高社会应对人工智能系统预期威胁的韧性?我们能否开发新的风险定价方法,或者开发技术工具和人类组织,以便在可预测的威胁(例如人工智能网络攻击能力的提升)到来之前提高韧性?

攻防平衡:人工智能赋能的能力是否会在网络空间和生物安全等领域从根本上有利于攻击者?当人工智能应用于更传统的领域,例如与指挥控制系统日益融合时,它是否也有利于攻击者?更广泛地说,人工智能将如何改变人类冲突的性质?

制定风险缓解措施:

危机应对规划:冷战时期,美国总统曾设有直通克里姆林宫的热线,以便在发生核危机时使用。那么,如果人工智能系统引发危机,需要怎样的地缘政治基础设施?这种基础设施未必是国家间的,也可能是公司间或公司间的。

更快的防御机制:人工智能能力可以在数月内取得长足进步,而监管、保险和基础设施的响应却需要数年时间。我们该如何弥合这一差距?诸如自动补丁、人工智能威胁检测或预先部署的响应能力等防御机制,能否跟上人工智能攻击的速度和规模?或者,这种不对称性是结构性的?我们又该如何尽可能有效地部署这些防御机制?

用于监视的情报能力

人工智能对监控的影响:人工智能将如何改变监控的运作方式?它会降低监控成本,还是提高监控效率,或者两者兼而有之?

实际应用中的人工智能系统

人与组织和人工智能系统的互动将成为社会变革的重要源泉。了解人工智能系统可能如何改变与其互动的人和机构,是我们社会影响团队的核心研究领域。为了研究这些变化,我们正在改进现有工具并开发新工具来开展研究,涵盖了从提高平台可观测性的软件到用于进行大规模定性调查的工具等各个方面。

人工智能对个人和社会的影响:

群体认识论:当很大一部分人群参考相同的少数几个模型时,我们的认识论会发生什么变化?我们能否找到方法来衡量由人工智能的共同使用引起的信念、写作风格和问题解决方法的大规模变化?

批判性思维:随着人工智能系统变得越来越强大、越来越值得信赖,我们如何检测和避免因越来越依赖人工智能的判断而导致的人类批判性思维能力的退化?

技术界面:技术的界面决定了人们如何与技术互动——电视使人们成为被动的观众,而计算机则使人们更容易成为创造性的创造者。我们可以构建什么样的界面,才能使人工智能系统改进并促进人类的自主性?

人机协作系统的管理:人类如何有效地管理由人类和人工智能系统组成的团队?反过来,人工智能系统又该如何管理由人类、人工智能或二者结合组成的团队?

识别人工智能带来的重大影响:

行为影响:正如社交媒体导致人们行为改变一样,人工智能也可能塑造人类行为。哪些监测或测量方法可以帮助研究人员了解这种动态变化?

促进研究:是否存在透明机制和工具,能够让广大民众(而不仅仅是前沿人工智能公司)轻松研究现实世界中的人工智能应用?

理解和管理人工智能模型:

系统“价值观”:人工智能系统表达的“价值观”是什么?这些价值观与系统的训练方式有何关联?更具体地说,我们如何衡量人工智能的“构成”对其部署后的行为产生的影响?我们将扩展之前针对这些问题的 研究。

自主智能体的治理:现有法律、治理体系和问责机制的哪些方面可以适用于自主人工智能智能体?例如,海事法如何处理弃船问题,与法律如何处理无人监管的智能体具有关联性。反之,现有法律中是否存在一些已经适用于人工智能智能体但实际上不应该适用的方面?

智能体的可靠性:自主人工智能智能体的哪些方面可以进行调整,以适应现有的法律、治理体系和问责机制?例如,我们能否确保人工智能智能体拥有唯一且可靠的身份,即使在没有直接人类控制的情况下也能如此?

人工智能治理人工智能:我们如何才能有效地利用人工智能来治理人工智能系统?在人工智能监管的哪些领域,人类具有比较优势,或者在法律或规范要求下必须“参与其中”?

智能体交互:人工智能智能体之间交互时会涌现出哪些规范?不同的智能体如何表达不同的偏好,这些偏好又会如何影响其他智能体?

人工智能驱动的研发

随着人工智能系统功能日益强大,科学家们正利用它们开展越来越多的研究。这意味着越来越多的科学研究在越来越少的人工干预下,以自主或半自主的方式进行。在人工智能研究领域,功能日益强大的系统可能被用于开发自身的后续版本。我们有时将这种模式称为“人工智能驱动的人工智能研发”。

人工智能驱动的人工智能研发或许是打造更智能、更强大的系统的“自然红利”。正如编码能力的进步催生了军民两用的网络能力,科学能力的进步可能催生军民两用生物能力一样,复杂技术工作的进步也可能自然而然地产生能够自我开发人工智能系统的人工智能系统。

人工智能驱动的人工智能研发本身蕴含着巨大的潜在风险。政策制定者在评估可采取的措施时,至关重要的是要了解人工智能发展速度的变化趋势,以及人工智能研究是否会开始产生复利效应。

人工智能用于人工智能研发

人工智能研发的治理:如果人工智能系统被用于自主开发和改进自身,人类如何才能有效地了解和控制这些系统?最终,什么将治理这些系统?

情报爆炸应急演练:我们如何进行情报爆炸应急演练?如何开展桌面演练,才能真正检验实验室领导层、董事会和政府的决策能力?

人工智能研发遥测:我们如何衡量人工智能研发的总体速度?为了收集这些信息,需要哪些遥测技术和底层技术支持?与人工智能研发相关的指标如何才能作为递归式自我改进的早期预警信号?

控制人工智能加速发展:如果智能爆炸即将到来,哪些干预点能够减缓或改变这种爆炸速度?假设人类可以进行干预,那么应该由哪些实体来行使这种能力——政府?企业?

人工智能在研发领域的应用——即人工智能驱动的其他领域的研究:

科技树:人工智能加速某些科学领域的发展速度远超其他领域,这取决于数据的可用性、评估指标以及有多少知识是隐性知识或受制度限制。这种发展梯度有多不均衡?科学进步构成的变化又意味着哪些人类问题会优先得到解决?

崎岖的前沿:模型能力在某些领域比其他领域更强。具有巨大正外部性的领域——例如药物研发和材料科学——获得的投资远低于其价值应得的水平。市场根据私人回报引导模型改进的方向,但我们能否改进模型的性能以应对社会外部性?

标签: 人工智能 人类 能力 系统 经济 领域 社会 问题 速度 工具 人们 世界 智能 技术 风险 市场 手机 政府 公司 模型 图片 议程 企业 来源 指数 行业 数据 方法 政策 团队 现实 部署 效率

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。