10月29日消息,负责支持和保护网络生活的云服务提供商阿卡迈技术公司(以下简称:Akamai)宣布推出Akamai Inference Cloud,该平台通过将推理从核心数据中心扩展到互联网边缘,重新定义了应用 AI 的场景与方式。
Akamai Inference Cloud 能够在靠近用户和设备的边缘实现智能化的智能体 AI 推理。与传统系统不同,该平台是专为在全球范围内提供低延迟、实时边缘 AI 处理而打造的。此次推出的 Akamai Inference Cloud 依托 Akamai 在全球分布式架构方面的专业能力以及 NVIDIA Blackwell AI 基础架构,对释放 AI 真正潜力所需的加速计算进行了颠覆性的重构与扩展。
从个性化数字体验、智能体到实时决策系统,下一代的 AI 应用程序迫切要求将 AI 推理部署在更靠近用户的位置,从而在用户的交互点实现即时互动,并就请求的路由路径做出智能决策。智能体工作负载日益需要低延迟推理、本地环境感知以及即时进行全球扩展的能力。专为推动此变革而打造的 Akamai Inference Cloud 是一个分布式、生成式边缘平台,它可以将 NVIDIA AI 技术栈部署在更靠近数据生成和决策制定的位置。
Akamai Inference Cloud 通过将智能化的智能体 AI 推理扩展到更靠近用户和设备的位置,重新定义了应用 AI 的场景和方式。该平台将 NVIDIA RTX PRO Server(配备 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU、NVIDIA BlueField-3 DPU 和 NVIDIA AI Enterprise 软件)与 Akamai 的分布式云计算基础架构及在全球拥有超过 4,200 个位置的全球边缘网络相结合。Akamai Inference Cloud 将充分利用 NVIDIA 最新的技术(包括最近发布的 NVIDIA BlueField-4 DPU)来进一步加速和保护从核心到边缘的数据访问及 AI 推理工作负载,以推动 Akamai 实现其打造全球高度可扩展、分布式 AI 性能的愿景。
Akamai首席执行官兼联合创始人Tom Leighton表示:”下一波AI浪潮的发展同样需要靠近用户——这正是互联网能够扩展为今天广泛应用的全球平台的原因。Akamai过去曾成功解决过这一难题,如今我们再次应对这一课题。依托NVIDIA的AI基础设施,Akamai Inference Cloud将通过部署在全球数千个节点的AI决策能力,来满足日益增长的AI推理算力与性能扩展的需求,从而实现更快速、更智能以及更安全的响应。”
NVIDIA创始人兼首席执行官黄仁勋指出:”推理已成为AI中计算最密集的环节——需要在全球范围内进行实时推理。NVIDIA与Akamai共同协作正在将推理能力部署更靠近每一位用户,提供更快速、可扩展性更强的生成式AI服务,释放新一代智能应用的潜力。”(果青)




京公网安备 11011402013531号