当前位置: 首页 » 资讯 » 科技头条 » 正文

谷歌联手Meta挑战英伟达!打响算力突围战?

IP属地 中国·北京 编辑:赵磊 不慌实验室 时间:2025-12-18 15:58:28
两大巨头打算撬动垄断

不慌实验室

在AI竞赛进入深水区的2025年末,谷歌(Google)与Meta Platforms宣布深化合作,旨在让谷歌的TPU(张量处理单元)在Meta主导开发的PyTorch框架上完美运行。

破局关键

双方聚焦核心目标:让谷歌自研的TPU芯片与Meta主导的PyTorch框架实现原生级兼容,打造英伟达GPU之外的可靠替代方案。

作为ASIC架构的代表,谷歌TPU已迭代至第七代Ironwood,FP8精度下峰值算力达4614 TFLOPS,192GB高带宽内存加持下,能效比远超英伟达B200,更支持9216颗芯片组成超大规模集群,总算力堪比24台全球顶级超算。

而Meta作为PyTorch开源方,常年受困于英伟达芯片高价缺货,2025年GPU采购预算高达720亿美元,此次计划2026年租赁谷歌云TPU算力,2027年斥资数十亿美元采购硬件部署自有数据中心,构建自研+外采的双供应链布局,这场合作标志着TPU从谷歌内部专用芯片正式走向商业化,AI算力竞争进入生态对抗新阶段。

这场联盟的核心价值,在于打破了英伟达硬件+软件的双重壁垒。

长期以来,英伟达凭借GPU性能与CUDA生态占据全球AI芯片超八成份额,攫取产业链90%利润,高价抢货成为行业常态。

谷歌TPU虽硬件参数亮眼,却因依赖自研Jax语言难以融入主流生态;而PyTorch作为全球超半数AI开发者的首选框架,成为破局关键。

通过技术协同,开发者无需大幅改写代码即可实现PyTorch模型向TPU的无缝迁移,谷歌推出的TPU指挥中心更降低了部署门槛,直接撕开CUDA生态的护城河。

对行业而言,高性价比硬件+主流生态的新模式意义深远:TPU私有化部署满足巨头数据安全与低延迟需求,推理成本较英伟达系统低30%-40%,既让Meta等企业摆脱英伟达税,更让中小企业得以享受低成本算力,加速AI应用普及。

同时,这一合作催生新商业机会:硬件端光模块、液冷设备厂商受益于TPU集群规模化部署,软件端跨平台迁移工具迎来发展窗口,终端侧AI原生应用创新场景持续涌现。

互补格局

从行业趋势来看,这场合作精准踩中AI算力多元化、定制化、生态化的核心脉络。

随着大模型参数量激增,单一算力架构难以为继,ASIC专用芯片凭借高效能比优势,正逐步侵蚀通用GPU市场,野村证券预测2026年ASIC出货量将首次超过GPU。

谷歌与Meta的联手为ASIC路线提供了商业化范本,推动市场从一家独大走向多极制衡,美银预测2030年AI数据中心潜在市场规模将达1.2万亿美元。

不过,值得关注的是,CUDA生态积累500万开发者,20年沉淀的软件栈与社区支持短期内难以替代。

TPU对复杂模型的兼容性仍需优化,中小企业迁移成本高达2-6个月周期。

台积电先进制程产能紧张、地缘政治管制等因素,也可能制约TPU扩张。

此外,英伟达正通过GB300、NVLink 5.0等技术巩固优势,AMD、英特尔等厂商加速布局,市场将形成GPU为主、TPU补充的互补格局。

这场巨头联手本质是AI产业底层逻辑的重塑算力不应是少数企业的垄断资源,而应成为普惠性创新动力。

谷歌TPU与PyTorch的深度融合,不仅提供了可靠替代选择,更推动行业从垄断溢价走向效率竞争。

尽管生态迁移、供应链等挑战仍存,但这场变革已不可逆转。

随着更多企业加入多元算力生态,AI产业将在良性竞争中加速前进,而谷歌与Meta的合作,无疑为这场算力革命写下了关键开篇。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。