
![]()
“Anthropic的一纸禁令,揭开了AWS大中华区无奈的一面。”
作者丨徐晓飞
编辑丨包永刚
“Claude说断就断,AWS大中华区根本无力周旋。”近期多位外资云销售向雷峰网反馈,不久前Claude大模型的研发公司Anthropic对中国企业发布了“AI断供令”,随后亚马逊云科技(简称AWS)大中华区的Bedrock平台就下架了Claude模型,同时也丢掉了字节和腾讯这两个大客户。
“字节是AWS大中华区Bedrock平台上的大客户,其贡献的MRR(经常性月收入)能达到800~900万美元。此外腾讯的CodeBuddy也有一定的量。这下全没了。”
雷峰网了解到,Bedrock是AWS的大模型调用平台,也是其“AI大模型超市”理念的载体。但长期以来,该平台都存在一种“畸形”——平台上90%多的调用量都来自于Claude模型,大中华区也不例外。
如今随着Claude对中国企业的断供,AWS大中华Bedrock受到牵连,大客户流失,调用量下跌,数亿美元的营收也飞了。
更让人担忧的是,这还让AWS大中华区的genAI(生成式AI)业务陷入几乎无货可卖的境地。
“能卖的基本就剩下Kiro、Quick Suite、Nova,前两者是工具卖不了多少钱,而自研的Nova大模型的能力还有待升级,不好卖。”多位销售坦言道。
不仅如此,他们还告诉雷峰网,近两年AWS大中华区的销售策略正在引发一个矛盾:
一方面,政策大量倾斜于 AI业务,忽略了对其他产品的支持;另一方面,比起美国总部,大中华区在 AI 模型的交涉权和GPU等资源的争取权上更弱,于是就造成了一个现象:单子商机抓到了,但供应跟不上,然后其他一些产品又没顾到,导致整体收益没有很好。
不仅如此,也有一些企业用户向雷峰网吐槽:“今年上半年AWS的容量较差,大模型资源池经常要啥没啥,估计是GPU耗量还没补上,听说去年都拿去训Nova了,和英伟达的订单生产量也没追上。”
大模型畸形依赖,GPU资源短缺,虽重兵投入,但主控权低,左冲右突、顾此失彼……多种因素交叠下,AWS大中华区的AI业务呈现出一种紧绷感和脆弱性。
AWS大中华区AI业务缘何至此?困局的根源真正在它吗?
01
MaaS层业务“一秒入冬”
进入AI云时代后,与微软、谷歌、甲骨文等云计算大厂的策略不同,AWS选择的策略是“Choice Matters(选择至关重要)”,在生成式 AI 平台 Amazon Bedrock上接入了不少外部大模型,期望通过模型调用来带动底层云资源的消耗。
但实际上,AWS的这套“模型超市”的商业模式并没跑通。
“真正把这套模式跑通的是一些独立于云大厂和大模型公司之外的第三方公司,比如Open Router。”AI初创公司高管张宁告诉雷峰网,Open Router是一个AI 模型 API 聚合平台,通过统一接口连接开发者与 400 + 大模型,在每笔模型调用中抽取5%左右的佣金。
反观AWS Bedrock,其约90%的调用量来自于Claude模型,这就让Bedrock“不像一个琳琅满目的超市,反而像某个产品的专卖店。”张宁表示。
“在AI大模型成为云大厂关键竞争要素后,谁会把最能打的模型放在友商平台?”这就导致AWS的Bedrock平台上没有多少能打的模型。
可以说,在AI战争的一开始,AWS就犯了一个战略性错误:AI大模型是AI云厂商的核心增长引擎,但AWS的这个引擎却被掌握在了别人手里。
尽管AWS号称 Bedrock上接入了上百个大模型,但实际上,除了占大头的Claude外,其他很多模型如GPT‑OSS、Qwen3、Llama、DeepSeek等,基本都是不具备稀缺性或性能被降级的开源模型,此外还有亚马逊自研的Nova大模型,但这些模型的调用量占比都很小。
在开源模型上,AWS对比其他供应商来说,并没有太强的差异化竞争力,而自研的 Nova大模型表现又一般,导致AWS的Bedrock在短期内难以摆脱严重依赖Claude的“偏科”现状。
这是AWS在MaaS层的“基本国情”。
Anthropic禁令之后,这种“偏科”的危害出现了。
多位销售无不担忧地表示,“明年AWS genAI这块基本上没什么能卖的东西了。”
“明年能卖的基本就剩 kiro、Quick Suite、Nova这些,前两者是工具卖不了多少钱,Nova能力不行,据说今年年底会推出Nova大模型的升级版,但实际水平如何,犹未可知。”
就目前AWS的genAI产品而言,情况并不乐观。更多细节数据可添加作者微信xf123a互通有无。
雷峰网多方调研了解到,Quick Suite目前在大中华区市场表现不佳——在AWS全球各个国家和地区的排行里,大中华区是垫底的,用户量甚至比拉丁美洲还少。
再说kiro这款产品,作为一款AI开发工具,不仅推出时间晚——落后于阿里、字节、腾讯等同类竞品,而且用户数也少得可怜。
用户数全球仅有2万多,落到中国市场这一数量还要更少。
在“Anthropic禁令”之前,kiro和字节Trae是直接竞争关系,但Trae价格更便宜,基本上便宜一半——Trae海外版一个月10美元,kiro要20美元。
“这两个产品之前都能提供Claude模型,但禁令出来后只有kiro能提供了,这或许是个转机。”一位相关产品的企业用户周琳告诉雷峰网,如果有一部分死忠粉还想继续用Claude模型,可能会转向使用kiro,这对亚马逊来说可能是个机会。
“但麻烦也还在——因为Anthropic已经明确说不对中国用户提供Cloude模型了,所以AWS现在相当于有个kiro的漏洞,就看啥时候会把这个漏洞补上吧。”她补充道。
总而言之,Anthropic的禁令会影响明年AWS大中华区的AI策略,至少“明年定AI KPI的时应该会谨慎了。”
事实上,除了在模型调用上的“偏科”外,AWS与Claude之间还存在更深层的问题。
不同于微软云与ChatGPT之间的深度绑定,AWS与Anthropic的Claude模型之间的合作堪称“松散”。
AWS与Claude的合作更多聚焦在API层面,这就导致两个问题:
一是AWS在Claude模型上的主控权低,在“Claude禁令”上没有斡旋余地;二是,AWS对Claude模型没有定价权,相当于只赚一个“通道费”。
不仅如此,据多方渠道反映,Anthropic 已开启直销业务,直接与 AWS 争夺客户,这无疑给 AWS Bedrock 的市场前景又添了一层隐忧。
“在Claude断供事件中,AWS只是一个执行者,更别提AWS大中华区了,基本上没什么能做的。”多位外资云销售告诉雷峰网,AWS大中华区在Claude这一产品上的主控权很低——“Claude的价格由Anthropic原厂销售控制,AWS大中华区没法介入,而且给不给资源、给多少资源,又是AWS美国总部说了算。”
不仅如此,Claude属于AWS Marketplace上的产品,所以Claude模型调用所产生的绝大多数收益都归Anthropic,而非AWS;同时在销售侧,今年 Claude 在 AWS 大中华区的业绩算给销售的营收据说只计入 3%——卖100块钱只算3块。
“对AWS的大中华区管理层和销售们来说,AI是一个讲故事的好题材,但真正能落到多少实惠,是要打个问号的。”券商分析师张伟表示。
事实上,这几年AI业务在大中华区颇受重视。
不仅设有“专项销售激励”,还在一些考核上也有所加强——不少大的行业线都会“AI产品营收要占比10%”的规定。同时大中华区也在加大人员投入,相关AI业务团队也进行了一定程度的扩招。
不仅如此,在战略导向上,大中华区内部也鼓励员工多卖AI产品,甚至一度形成了“只有做AI相关项目才有价值”的业务氛围。
种种举措是好的,但与此同时一些矛盾也开始逐渐显露。
不少销售发现,过去两年,AWS大中华区的策略大量倾斜于 AI,忽略了对其他传统云计算产品的支持,又因为受制于AWS全球总部政策,大中华区在AI模型的交涉权和资源争取权上处于被动,于是很容易就变成:“单子商机抓到了,但供应不上,然后其他产品又没顾到,最终导致整体收益反而没有很好。”
而如今 Anthropic 切断了对中国企业的Claude大模型供应,让本不富裕的AWS大中华区MaaS层更加雪上加霜。“明年恐怕连商机都会少很多。”
02
GPU 资源“捉襟见肘”,自研芯片易用性低
除了MaaS层业务面临挑战外,在 GPU 领域,过去两年不少国内外云大厂在 GPU 大单上增长迅猛,但AWS(包括大中华区在内)却增长相对迟缓,远不及其他云大厂。
事实上,“GPU储备不足、资源紧张”,在近两年甚至成为AWS这个全球云计算一哥难以摆脱的“标签”。与甲骨文、谷歌云、微软云等友商相比,AWS的GPU资源相差了不止一个量级。
这种资源短缺的窘境也传导到了大中华区。并且,由于AWS大中华区营收在AWS全球总营收中只占到个位数,长期处于被忽视地位,使其在资源争取上天然处于弱势,进一步加重了其GPU资源的短缺程度。
一些企业客户向雷峰网吐槽:“今年上半年AWS的容量比较差,大模型资源池要啥没啥。估计是GPU耗量还没补上,听说去年都拿去训Nova了,和英伟达的订单生产量也没追上。”
不仅如此,据多位外资云销售透露,去年年中,AWS大中华区花了很大力气和TikTok签了一份GPU算力大单,但签完后却没能如约交付——因为当时AWS从英伟达那边订的货还没交付、没上线。这让AWS大中华区陷入被动,据传后来TikTok把GPU的大部分需求都转给了谷歌云。
前述销售王强感慨,“在AI大模型浪潮出现以前,大中华区市场上,微软云、谷歌云都只是AWS的小弟,但大模型出现后,这些小弟们凭借AI优势,有了弯道超车的势头。”
“谷歌云在大中华区这两年发展‘很猛’,主要原因就是其GPU卖得好:价格相对便宜,折扣也深,而且最重要的是供应量充足。”他补充道。
充足稳定的供给有多重要?
在券商分析师许孟看来,“甲骨文做的工作其实非常有限,就是从英伟达手里买来 GPU,装进数据中心后,卖给 OpenAI、xAI 等算力消耗大户,本质上就是‘倒手’,但它能拿到芯片,并且稳定地供应,让自己成了AI产业链中非常重要的一个供应商。”
再说回AWS,据说今年上半年,AWS大中华区和TikTok又补签了一个5年25亿美金的框架合同,但这次补签的不是GPU单子,而是计算、存储、网络等传统云服务。
不难看出,留给AWS的GPU市场机会正在减少。
另一份市场订单也反映了这一趋势。
多位云计算销售告诉雷峰网,今年上半年,阿里分别与微软云、谷歌云签订了约2亿和5亿美金的GPU订单,不久后也与AWS签订了一份金额约为千万美元级别的GPU订单,并且据说这是AWS大中华区目前GPU业务上最大的一单。
从三家GPU订单的金额对比上,也不难看出AWS大中华区在GPU资源上的“捉襟见肘”。
不仅如此,签单原本是好事,但对资源紧缺的AWS来说,反而可能进一步加剧其短缺困境。
不少AWS客户向雷峰网坦言了这种担心,尤其不久前AWS全球与OpenAI签订了一项380亿美元的GPU订单,这是否会影响到对他们的GPU供应。
AWS的GPU资源为何如此紧张?
最直接的原因是AWS在GPU采购、储备上相对友商来说,比较滞后且量少。
“AWS在AI浪潮刚兴起时没有像甲骨文、微软一样大手笔投入盖数据中心,过往采购的GPU也偏少,尽管最近AWS GPU数量缓过来了些,但已经赶不上去年跟今年上半的AI疯狂需求了。”许孟表示。
而这背后更深层次的原因是:亚马逊在GPU上陷入了战略摇摆、战略纠结。
不同于甲骨文全力押注英伟达芯片,亚马逊采取了“两头下注”的策略:既没放弃自研芯片,也会采购英伟达产品,但采购数量相对较少。
算力专家胡潇告诉雷峰网,AWS在GPU、AI战略上有自研芯片的算盘:希望自己的自研芯片能快速成长,从而把AI云的成本降下来,把市场主动权掌握在自己手里。
事实上,近两年云大厂的智算中心尽管搞得如火如荼,但由于核心部件GPU被英伟达等芯片大厂所垄断,云计算公司们投资越高、成本越高,利润却没有大幅提升,业内也一直有 “给英伟达打工” 的调侃。
对AWS来说同样如此,GPU成本太高,且供应完全掌握在别人手里,AWS的利润率无法保证,压力不小。
但现在的问题是:AWS自研芯片的进展不佳。
胡潇透露:“目前 AWS 自研芯片 Trainium 系列直接使用难度较大,需要企业用户自己投入研发人员专门调测,耗时耗力。更何况目前有能力大笔投人做调测的企业并不多,所以从客户角度来看,Trainium的使用难度更高,性价比更低。”
不仅如此,AWS自研芯片还引发一个问题,即自研芯片与外部采购芯片之间相互打架。
常驻国外的IT工程师冯伟向雷峰网透露,AWS 会纠结这些问题:采购来的 GPU 是分给内部用还是给客户用?内部实际需求到底有多少?能不能用自研芯片替代 GPU?对客户能不能优先推荐自研芯片来替代 GPU?“把事情搞得特别复杂。”
谷歌也有自研芯片,为何它在这波 AI 浪潮中似乎并未陷入 “GPU 资源短缺、内外部打架” 的困扰?在一些业内人士看来,核心原因是谷歌云的 GPU 策略足够清晰 —— 一方面谷歌GPU储备更充足,另一方面它在GPU上也更坚定:在大部分情况下,对内用自研TPU,对外销售 GPU,内外部不冲突。
不得不说,眼下 AWS(包括大中华区)的优势更多还是在通用算力上,在 GPU 算力上的优势并不大,而这在 AI 云计算时代,可能是致命的。要知道,当前智算基建的角逐已进入白热化,不仅云大厂,芯片厂商、AI 巨头、资本大鳄也都争相入局,智算早已成为各家角力的必争之地。
不过群雄并起的背后,也伴随泥沙俱下。产业真相究竟如何?最大的机会与痛点在哪?雷峰网12月13日举办的2025 GAIR 大会・智算专场将揭晓答案,大会详情见文末。
03
AWS大中华区的AI业务为何如此“脆弱”?
如前所述,AWS大中华区在AI业务——不论是MaaS层还是GPU上,实际上都受制于美国总部,在资源争取、调用及产品支持上并无太多主控权。一旦产品和资源被断供,再多的销售策略也成了“无源之水,无本之木”。
这是AWS大中华区AI业务“脆弱性”的直接原因。
而再往上追溯,AWS乃至整个亚马逊集团在AI云产业浪潮中的阶段性掉队,才是其大中华区AI业务“脆弱性”的真正根源。
“(大模型、AI工具、芯片……)什么都做了,但什么都不突出。” 这是AWS在当前AI云时代面临的核心困境,这让它面对市场变化时只能被动跟随,遭遇友商竞争时也难以有效招架。
大模型浪潮让已有二十多年历史的传统云计算行业来到了一个重新洗牌的 “新起点”,昨日种种譬如昨日死。在新的赛场上,微软、谷歌、甲骨文都抓住了或大模型或GPU等某一风口,股价飙升、利润大涨。
相比之下,亚马逊这只 “大象” 似乎未能灵活转身,在第一时间抓住机遇、搭上 AI 云的风口。这是为何?
雷峰网采访了多位行业专家后发现,背后的原因很多。
在不少业内人看来,首要的问题出在战略上。
咨询机构分析师陶文告诉雷锋网,亚马逊一贯喜欢采取“后发制人”的策略—— 不率先开拓新市场,而是等市场被验证后,再利用自己的体量和资源进场收割。
“过去这套逻辑屡试不爽,但进入 AI 时代后不灵验了 —— 因为市场迭代太快了,等你看明白的时候,机会早跑了,导致战略、策略总是慢半拍。”
不少AI业内人告诉雷峰网,当初OpenAI刚起步,到处寻找投资时,最先找的是亚马逊,却被亚马逊拒绝了。后来AI 行业风起云涌了,亚马逊终于反应过来想上车了,于是投了Anthropic,但此时已经错失了先机。
“上车的难度更高,效果也差一大截。亚马逊给Anthropic投了80亿,但现在Anthropic 的估值已经达到了3500 亿,80 亿能有什么话语权?”
而且现在 Anthropic 自己也开始做销售了,还跟AWS抢客户,再加上近期Anthropic 还与微软、英伟达签订了相互合作的战略协议,这都给AWS的AI布局添了不少变数。
除了后发制人的战略惯性外,冯伟还告诉雷峰网,亚马逊管理层向来保守谨慎,缺乏雷厉风行的决策魄力和机制。
“亚马逊有个叫‘S Team’的部门,是决策核心,隶属于CEO下面,约有二十多人,这些人大都是元老级别,趋向保守,在需要大胆变革时容易固步自封。”
不仅如此,亚马逊以电商为主业,长期深受电商“低利润率”文化的影响,对利润极其敏感。
“这在成熟市场没问题,但AI时代的关键是抢先布局、占领市场,而非计较短期利润。当其他友商敢为人先、大手笔投入时,亚马逊还在纠结GPU定价、折扣力度、如何提升盈利等传统运营指标,这种思维与AI行业当前的逻辑明显脱节。”冯伟补充道。
除战略层外,在战术执行上,包括AWS在内的亚马逊集团又因为体量太大而“尾大难掉”,难以灵活调整。
在亚马逊总部技术人员张亮的印象中,这两年团队间的指令传达层级多、协作复杂,最明显的就是产品从立项、开发到交付,周期越来越长,延期也越来越严重,“很像那种典型的大企业病。”
以至于尽管AWS在基础模型自研方面起步并不算晚,ChatGPT出来的时候就跟着布局了,但就是总跟不上,相比市场对Gemini的高关注度,Nova时至今日一直默默无名。
张亮告诉雷峰网,AWS在AI研发的人才与组织架构上目前存在的问题不少。
首先是AI领军人才的缺乏。比起谷歌AI人才频频出圈,市面上几乎听不到AWS AI人才的声音。在张亮看来,这是因为亚马逊太在乎成本,更倾向于选些“便宜够用”的人,但问题是现在市场上AI人才都溢价了,舍不得砸钱如何能吸引到人才?
另外,这几年亚马逊AI产研团队的人跟走马灯似的进进出出,就是留不住人。人才不稳,产品也难有起,推出的产品屡屡不及预期。而更深层次的原因还有,在现有组织架构下,再有能力的人来了之后既没足够授权,又被各种组织桎梏掣肘,根本没法放开手脚做事。
“其实AWS的AI人才不少,但就是特别分散,比如亚马逊有自己的AI部门,AWS也单独设了AI团队,另外各个业务线还有专属的小AI团队,架构显得特别杂乱,而且也增加了团队间的协作成本。”张亮无奈道。
自上而下的组织桎梏、基因与战略的路径依赖……多重因素叠加,让 AWS 从曾经的云计算 “一哥”,沦为 AI 云浪潮中的追赶者。
而这一被动之势也在向大中华区云计算市场蔓延,给 AWS 大中华区团队带来了前所未有的压力与挑战。出路何在,已成为AWS 大中华区亟需思考的核心命题,雷峰网也将持续追踪、关注。
注:文中出现人名如张宁、周琳、张伟、王强、许孟、胡潇、冯伟、陶文、张亮等皆为化名。
作者长期关注云大厂、SaaS、全球AI科技大公司等相关话题,欢迎添加微信 xf123a 交流。
第八届 GAIR 全球人工智能与机器人大会
2025年12月12-13日,第八届GAIR全球人工智能与机器人大会,将在深圳南山·博林天瑞喜来登酒店举办。大会将开设三个主题论坛,聚焦大模型、算力变革、世界模型等多个议题,描绘AI最前沿的探索群像,折射学界与产业界共建的智能未来。
其中,大会将在13号当天开设智算专场。以「重塑算力格局 · 竞逐智算未来」为主题,聚焦两大前沿话题:谁是下一个寒武纪?谁将定义中国智算未来?汇聚一批来自AI 芯片、智算中心、云计算的资深专家,共同探讨算力革命的现实逻辑与趋势走向。
作为粤港澳大湾区最具影响力的AI论坛,历届GAIR大会邀请了多位图灵奖、诺贝尔奖得主、50位院士、30位人工智能国际顶会主席、100多位 Fellow,及500多位知名企业领袖。
目前,首批重磅大咖名单正式揭晓,还有更多行业领军者将齐聚现场,共探智能的未来。欢迎点击文末“阅读原文”或识别海报二维码,报名参会,相约 GAIR 2025 。
![]()






京公网安备 11011402013531号