亚马逊云服务(AWS)正通过将AI基础设施直接部署到客户数据中心的方式重塑云计算市场格局。这一名为"AI工厂"的新产品模式使政府和大型企业能够在满足合规要求的前提下大规模部署AI项目,同时保持对数据处理和存储位置的完全控制。
周二,AWS在拉斯维加斯举行的Re:Invent 2025大会上发布了这一产品。AI工厂将Nvidia GPU、Trainium芯片以及AWS网络、存储和数据库等基础设施部署到客户自有数据中心,专门为单一客户运营,像私有AWS区域一样运作。
该产品基于AWS为Anthropic打造的Project Rainier项目发展而来,并已在沙特阿拉伯与Humain的合作中得到应用。上个月,AWS与Humain宣布扩大合作,计划部署约15万颗AI芯片,包括Nvidia GB300和Trainium芯片。
这一模式反映了云服务商在AI时代的战略转变:通过提供灵活的部署方式和更具成本效益的专用基础设施,争夺对数据主权和合规性要求严格的高价值客户。
双芯片战略满足不同需求
AWS AI工厂为客户提供两种技术路线选择。客户可以选择Nvidia-AWS AI工厂集成方案,获得Nvidia硬件、全栈Nvidia AI软件以及Nvidia计算平台。AWS Nitro系统、Elastic Fabric Adapter(EFA)千万亿级网络以及Amazon EC2 UltraClusters支持Nvidia Grace Blackwell和下一代Nvidia Vera Rubin平台。
同时,AWS提供基于自研Trainium芯片的方案。公司在Re:Invent大会上发布了Trainium3 UltraServers,并公布了Trainium4芯片的规划细节。值得注意的是,AWS计划让未来的Trainium4芯片兼容Nvidia NVLink Fusion,增强两种方案间的互操作性。
Nvidia负责超大规模和HPC业务的副总裁兼总经理Ian Buck表示:
大规模AI需要全栈方法——从先进的GPU和网络到优化数据中心每一层的软件和服务。通过将Nvidia最新的Grace Blackwell和Vera Rubin架构与AWS安全、高性能的基础设施和AI软件栈相结合,AWS AI工厂让组织能够在极短时间内建立强大的AI能力,完全专注于创新而非集成。
沙特项目验证商业模式
沙特阿拉伯的Humain项目为AWS AI工厂模式提供了大规模商业化验证。Humain CEO Tareq Amin表示:"AWS在我们新AI区建设的AI工厂代表了Humain和AWS数千兆瓦级旅程的开端。从一开始,这一基础设施就是为满足日益增长的本地和全球AI计算需求而设计的。"
Tareq Amin强调选择AWS的原因:"我们选择AWS是因为他们在大规模构建基础设施方面的经验、企业级可靠性、广泛的AI能力以及对该地区的深度承诺。通过对全球市场扩张的共同承诺,我们正在创建一个将塑造AI理念如何为整个世界构建、部署和扩展的生态系统。"
该项目涉及部署约15万颗AI芯片,包括Nvidia GB300和Trainium芯片,展示了AWS在超大规模AI基础设施交付方面的能力。
瞄准政府和高合规需求市场
AI工厂产品主要针对对数据主权和合规性有严格要求的政府机构和大型组织。这种专用基础设施模式使客户能够在自有数据中心内运行AWS托管服务,包括基础模型,同时保持对数据处理和存储位置的控制。
这一定位与AWS近期的市场动作相呼应。据媒体报道,AWS最近宣布计划投资500亿美元为美国政府扩展AI和高性能计算能力。
通过AI工厂模式,AWS将云服务的灵活性与本地部署的合规性相结合,为客户提供了第三种选择。这种"私有AWS区域"的运作方式让组织能够利用AWS的管理服务和技术能力,同时满足监管机构对数据本地化和主权的要求。





京公网安备 11011402013531号