当前位置: 首页 » 资讯 » 科技头条 » 正文

被战争部点名的Anthropic,如何成长为硅谷大模型第三极?

IP属地 中国·北京 编辑:刘敏 数智前线 时间:2026-03-03 12:41:09

过去两个月,Anthropic正成为硅谷最炙手可热也最具话题性的大模型公司。

几天前,特朗普罕见下令所有联邦机构立即停止使用Anthropic,战争部长随即将这家公司列为“供应链风险“。这是美国本土大模型公司首次遭遇此类限制,特朗普本人在社交媒体上直言:“他们想要不受约束的权力,我们不能允许。”

而在周末发生的美对伊军事打击中,根据华尔街日报报道,虽有高层禁令,但美军指挥部仍然使用了Anthropic旗下的大模型产品Claude进行情报评估、目标识别和模拟战斗。

在此之前的一个月,这家公司又在美股市场引发了一场SaaS股大流血。投资者担心AI正直接蚕食传统企业软件市场而形成“SaaSpocalypse”恐慌,导致Salesforce、HubSpot等SaaS巨头股价集体暴跌。

同期,Anthropic还卷入了与当下最火的Agent开发框架Openclaw(最初名为Clawdbot,也是中文社区的小龙虾)的纷争中。Anthropic以商标和安全为由封禁了Openclaw却意外将这一项目及其创始人Peter Steinberger推向OpenAI怀抱。

与纷争和风波不断同步的是,风暴眼中的Anthropic还在持续增长。根据其在今年2月12日官网发布的G轮融资公告披露,Anthropic的ARR数据已经达到140亿美元,尤其是编码工具营收在1月以来翻了一番。

国家安全、金融恐慌、巨幅增长,Anthropic无疑已经成为了硅谷大模型市场里的重要一极。一些机构的统计里,这家公司甚至超过了OpenAI,悄然引领企业级AI市场增长。

那么,这家硅谷大模型第三极到底如何炼成?一家创业公司如何在过去三年成为营收增长最快的软件公司?它为什么受到特朗普及美国国防部门的严厉批评,它又如何在OpenAI统治的大模型世界走出与OpenAI及谷歌不同的差异化道路?

01

脱胎于OpenAI,迥异于OpenAI

2026年2月19日,印度新德里举行的AI影响力峰会上的一个瞬间被全球媒体定格。印度总理莫迪组织科技领袖们手拉手合影时,站在一起的OpenAI CEO Sam Altman 和Anthropic CEO Dario Amodei拒绝握手,而是各自举起拳头。

这一幕迅速在社交媒体上疯传,被称为“AI冷战”的标志性画面。它也能作为观察Anthropic发展历程的极为鲜明的切入口。毕竟,如果把Anthropic称为大模型第三极,那么这个第三极的诞生和成长历程与大模型第一极OpenAI息息相关。

在Dario Amodei与AI产业建立联系之前,他的求学经历看起来颇为精英范儿。Amodei很早展露出出色的物理学天赋,2000年入选美国物理奥林匹克国家队,随后在加州理工学院和斯坦福大学攻读物理学。

2006年因父亲罹患罕见疾病去世,他将研究方向转向生物学希望解码人类疾病,最终于2011年获得普林斯顿大学生物物理学博士学位。之后他又在斯坦福医学院从事博士后研究,开发高通量蛋白质分析的计算方法。

横跨物理学、生物学和计算方法的学术训练,使他对复杂系统的量化分析产生浓厚兴趣,可能也为他2014~2015年加入百度在吴恩达的麾下从事大模型规模定律的早期研究奠定了基础。

也是在那一时期,埃隆马斯克和Sam Altman等人担心即将爆发的人工智能革命只被谷歌掌握,因而决定成立一家非营利组织OpenAI。筹备初期,马斯克邀请Sam Altman, Ilya Sutskever等一众人士举办过一个晚餐,Dario Amodei当时也受邀参与。

不过这个晚宴后,Dario Amodei并没有加入OpenAI而是加入了谷歌大脑项目。他在谷歌的十个月如陷泥潭,进展缓慢,于是很快他重做选择,在2016年加入OpenAI并主管AI安全工作。

接下来直到2021年二人分道扬镳前,Sam Altman和Dario Amodei共同见证了一个研究实验室向商业巨头的转型。

在这期间,Amodei主导开发了GPT-2和GPT-3,并与团队共同发明了“基于人类反馈的强化学习”(RLHF)技术,后来所有主流大语言模型都应用了这一技术。而Altman 则在2019年正式接任CEO,推动OpenAI 接受微软 10亿美元投资,并将组织架构从非营利转向“有上限利润”模式。

裂痕也在同期埋下,围绕着产品推出及商业化的进度如何平衡AI安全的问题,Amodei与Altman之间存在分歧。

2020年底,Dario Amodei带着包括妹妹Daniela在内的14名核心研究员集体出走。2021年2月,Anthropic创立。

用Amodei的话说,从OpenAI出走是因为对OpenAI在微软投资后的方向转变感到担忧,他担心OpenAI偏离了其原始使命,而微软的加入让非营利组织属性发生变化,AI技术有可能被大型公司垄断,最终掌握在少数公司手中。在今年2月的一次播客访谈里,Amodei提到了分歧在于他主张更审慎的发布节奏和更严格的安全测试,而OpenAI在微软投资后加速商业化。

海外的媒体对其出走的原因也有诸多报道分析。一篇采访了二十多位Amodei身边人士的深度报道中写到,Dario在 OpenAI 中的地位提升,围绕他的争议也随之增加。他是一位多产的写作者,撰写了大量关于价值观和技术的长篇文档,一些同事认为这些文档富有启发性,而另一些人则认为这些文档是在树立旗帜、态度强硬。甚至有人认为他对安全的关注是控制公司的途径之一。

不管怎样,Anthropic在这时脱胎自OpenAI,并在成立之初就设计了一套安全优先的治理结构。

一是注册为了PBC公司(公共利益公司),这种公司必须同时平衡股东的经济利益以及章程中明确的特定公共利益。Anthropic章程里明确指出,要“负责任地开发和维护先进 AI,为人类的长期利益服务”。

其次是,设立长期利益信托,由独立受托人监督公司决策,确保不因短期商业压力而牺牲AI安全。

时代杂志2024年点评称OpenAI 2023 年的治理危机恰恰验证了Anthropic 对新型治理结构必要性的判断。

除了发展理念和治理结构,此后Anthropic在技术和产品的策略上也沿袭了这种对AI安全的重视,最终开启了一条迥异于OpenAI的大模型创业之路。

同时,Anthropic选择把模型调到企业可验证的任务上,让商业客户更有信心。安全性与企业可信度成为核心竞争力,而不仅仅是性能指标。这条路线使Anthropic在企业AI市场受到关注。

相比而言,谷歌在大模型世界里直到创始人谢尔盖布林回归,Gemini3发布,谷歌才凭借着此前积累的全栈能力而重回大模型竞争的头部行列。

与谷歌相比,Anthropic将Sonnet 4.5定位为全球最强的企业级大模型。从Claude 3到Claude 4.5,Anthropic的迭代速度超过Google的Gemini系列。

02

企业级市场的发展战略,如何形成?

上个周末美对伊的军事行动被不少人士界定为一场AI战争,Anthropic和Plantir被视作美军成功实施打击的秘密武器。当然之后又有分析文章称AI自动化打赢战争的情况并不属实。

但这些新动向都发生在特朗普及五角大楼对Anthropic禁令之后的几小时里,也让Anthropic所聚焦的AI安全问题有了真实的锚点。而这场对持,也向大众提供了一个观察视角,从中能看到Anthropic的AI安全观以及它与OpenAI之间的差异。

起因在上个月五角大楼要求Anthropic 移除Claude模型上的安全护栏,以便在“所有合法用途”中使用该模型。Amodei明确拒绝,称即使在美国国防部施压的情况下,也不会移除其前沿 AI模型Claude的安全措施。“我们无法在良心上同意他们的要求”,Amodei 在一封800词的声明中写道。

这份声明里还提到一个点,“Anthropic是首个将模型部署到美国政府机密网络、首个在国家级实验室部署模型,以及首个为国家安全客户提供定制模型的人工智能公司。”但Amodei警告说,国防部提出的“任何合法使用”的要求将迫使公司跨越两条红线,即大规模国内监控和完全自主武器。

就在Anthropic被威胁列入供应链风险名单的几小时后,Sam Altman宣布OpenAI与国防部达成协议,允许其模型部署在军方机密网络中。

两相比较,能看到两家公司在AI安全上的不同态度。

Anthropic主张在技术层面来限制需求,而Altman则更倾向于选择通过合同条款和政策框架来约束,最终OpenAI选择与美国国防部合作。Altaman在达成协议后称,协议里包含了“技术保障措施”和“红线”限制,如不用于国内大规模监控和完全自主武器。

这种态度差异呼应了Anthropic从OpenIA出走的原因。某种程度而言,它反映出两家公司对安全及商业利益的不同排序,最终又与两家公司所服务的市场形成了相互强化的闭环,OpenAI 更重视toC,追求增长,而Anthoropic追求安全和稳定最终走了ToB路线。

Anthropic从2023年发布Claude1以来的技术产品布局,也都一步步朝向打造企业级市场影响力而推进。

2022年12月1日,OpenAI发布ChatGPT时一开始就面向全球公众,而2023年3月,Claude 1和 Claude Instant发布时仅面向经审核的企业用户。

今年2月Amodei还在接受播客采访时说,它们早在2022 年就有一个早期版本的 Claude 1,早于 ChatGPT的发布,但他们选择当时不公开发布,因为担心会引发军备竞赛,没有足够时间安全地构建这些系统。这些动作给人一个印象是,比起安全,Claude并不十分在意在消费者市场占得先机。

更强的长上下文窗口的支持能力,也在让Claude比ChatGPT更贴合企业级市场的复杂工作流。

追溯Claude的更新换代历程能看到,它在2023年5月开始将上下文支持能力从9K扩展到能支持100K tokens的上下文。而2023年3月GPT-4发布最高32K Tokens的上下文,之后直到2023年的11月 GPT-4 Turbo发布时才支持API调用时可达128K,ChatGPT Plus用户实际只能用32K。

2024年3月,Claude 3发布又全线支持200k,重新拉开了与OpenAI的差距。

如今,二者在企业市场的上下文支持能力都达到了1M tokens,但外界认为,在2023年到2024年,长上下文能力是Anthropic在企业市场的核心卖点之一。正如Anthropic官方提到,“企业客户有高达 50% 的知识库以PDF、流程图、演示文稿等形式存在,长上下文能力让 Claude 可以一次性处理整个代码库、数百页法律文档或销售记录”。

2024年之后,Anthropic的产品矩阵也明显更重视企业级市场的应用。

比如,2024年7月推出的Artifacts将Claude从对话工具转变为协作工作区,有投研机构认为它解决了如何让 AI 智能无缝融入现有工作流的核心挑战。2024年推出的Projects也增强了面向团队的知识管理和协作能力。

更大的向开发者及企业市场渗透的动作当属2025年2月发布的Claude Code。作为一款可直接在终端运行的agentic编程工具,它完成了从代码补全到给AI委托完整任务的进化。

AI Code是当下Tob AI应用渗透率最高赛道,Anthropic目前已经在市场上形成了代码能力强的认知,这无疑能强化它在企业级市场的优势。

它还有其他动作,如发布MCP协议作为底层标准,进而开发Skills工具集,并于2026年2月推出面向终端用户的Cowork Plugins插件市场,便利企业部署定制化的AI工作流。

尤其是2月初,当Anthropic宣布法律领域插件时,Thomson Reuters和LegalZoom等法律科技公司股价应声下跌。这也显示出,Anthropic向企业AI Agent市场进入的纵深度。

03

竞争白热化,安全正成为其竞争的工具

与它在企业级市场开拓同步的,是Anthropic在市场叙事上刻意打造的可信企业专家形象。

由于AI 竞争日益白热化,Anthropic在打造自身的企业级可信形象时,日益呈现出鲜明的防御性与攻击性。

比如,今年2月,Anthropic在超级碗投放了四个意有所指的广告,矛头直指OpenAI。每支广告都以一个带有强烈负面情绪的单词开场,展示的是一个普通人向AI寻求建议时被无关广告打断的荒诞场景。

在其中一则广告里,一名男子在AI助手化身的健身教练的指导下训练。当男子需要制定健身计划时,AI助手突然插入了广告。画面最后出现了一句话,Ads are coming to Al. But not to Claude。这批评的当然是OpenAI此前宣布在大模型聊天助手里推出广告功能。

除了这次针锋相对以外,2025年5月Anthropic也干过类似的事。

当时他们在旧金山投放广告,广告牌上写着“你可以信任的AI”和“没有那些戏剧性的那个”,人们普遍将之解读为影射OpenAI在2023年11月的董事会政变。

Sam Altman没有沉默下去,他反击称Anthropic言辞不诚实,并且称该公司只向富人提供昂贵的产品,而OpenAI强烈认为需要将AI带给数十亿无法支付订阅费用的人。

除了攻击OpenAI,对待来自中国的开源竞争对手,Anthropic也有不少的动作。

去年DeepSeek狂潮席卷全球,面对开源冲击,Dario Amodei在个人博客发表长文,将芯片出口管制提升到国家安全的高度,称其为决定我们最终处于单极还是双极世界的最重要因素。去年2月,Anthropic还呼吁针对先进AI 芯片和模型权重进行出口管制。

甚至在今年2月特朗普政府允许出售H200新品时,Amodei还公开抨击这一政策,称是将技术领先优势交给竞争对手。

他的芯片管制言论当然受到了英伟达CEO黄仁勋的反对,不少人认为这是利用国家安全的名义来进行商业竞争,维系自身优势。

就在2月与国防部门的对峙之际,Anthropic还发布了措辞强硬的技术报告,指控 DeepSeek、Moonshot 和 MiniMax 进行工业规模的蒸馏攻击。报告发布时间恰逢 Amodei 被召至国防部接受质询之际,也有人认为这是在重塑 Anthropic的美国爱国守护者的形象。

回顾Amodei对中国AI的态度,突变点发生在2025年DeepSeek发布后。此前,他对百度在吴恩达麾下的时光时曾公开表示那段时间是他进入AI的重要启蒙。而随着DeepSeek在推理能力上的突破,他对中国AI转向了更激进的态度。某种程度而言,这反映了美国AI产业内部对中国竞争的深度焦虑。

相比1985年出生的Sam Altman的高调和举世闻名,外界对1983年出生的Dario Amodei了解不算多。Dario Amodei更为内敛,更重视隐私,他没有X账号,很少抛头露面。他的公开采访也主要集中在技术和政策议题上,且多为深度技术讨论而非营销宣传,外界通常将他视作一位技术专家型CEO。

而Sam Altman则被视作管理型CEO,职业创业者和投资人出身,擅长管理和整合资源人脉,擅长利用公众影响力塑造公司形象。

但从过去一年Dario Amodei在面对不同竞争对手采取不同竞争策略的举措来看,Dario Amodei明显是一名审慎、低调,能在行业激烈竞争中利用不同资源来压制对手的人。同时,他的议程设置策略明显不可小觑。

在Sam Altman与美国五角大楼宣布合作后,社交媒体上掀起了抛弃ChatGPT转投Claude的活动,2月28日Claude在AppStore上登顶。

Dario Amodei强烈的竞争意识从何而来?也许就来自这个行业的激烈竞争和天量投入带来的生存焦虑。

在最近的一个播客访谈中,Dario Amodei认为AI的进步将继续,但可能不会像许多人预期的那样保持陡峭、不间断的上升。他解释称,哪怕收入预测只偏差20%(从1万亿降到8000亿),即使AI能力最终实现,但只要晚一年,公司可能就会破产。因此他在AI投入上也十分稳健,500亿美元基础设施投资计划远低于OpenAI的承诺。

激烈的行业竞争甚至还在侵蚀Anthropic对安全的承诺。TIME杂志2月24日发布的独家报道显示,Anthropic正放弃核心安全承诺——除非能事先保证公司的安全措施足够,否则绝不训练 AI 系统。他们在相关政策里删除了禁止公司在安全措施未到位前训练更强大模型的硬性限制。一些评论人士认为,评估和缓解风险的方法跟不上能力发展的速度。

虽然因“AI安全”考量拒绝了美国国防部门的施压,但在大模型市场的激烈竞争下,Anthropic最终也许难以维持它曾经引以为傲的差异化承诺。

标签: anthropic 模型 ai 市场 openai amodei claude 微软 谷歌 文档

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。