长期以来,NVIDIA(英伟达)凭借其强大的CUDA生态系统在AI领域占据主导地位,而竞争对手AMD的ROCm等技术相对不够成熟。然而,这一格局正迎来新的变革者微软。据一位"高级别"微软员工透露,公司已开发出一种"工具包",能够将NVIDIA CUDA模型转换或转译为ROCm兼容代码,使其能在AMD的GPU上运行。
此举旨在打破CUDA的"生态锁定",为微软日益增长的AI推理工作负载寻找更具成本效益的替代方案。微软此番行动的核心驱动力在于,AI推理工作负载需求正在大幅增加,与昂贵的NVIDIA GPU相比,AMD的AI芯片在推理场景中具备更佳的性价比。通过软件转换,微软可以利用AMD的硬件优势来降低运营成本。
据推测,该工具包可能采用类似ZLUDA的运行时兼容层技术,在不修改源代码的情况下,将CUDA API调用实时翻译成ROCm指令。然而,由于ROCm相对"不成熟",部分CUDA代码仍缺乏对应的映射,可能导致性能下降,这在大型数据中心环境中仍是一个挑战。





京公网安备 11011402013531号