当前位置: 首页 » 资讯 » 科技头条 » 正文

​戴尔 GB10:桌面超级计算引领本地 AI 新时代

IP属地 中国·北京 编辑:冯璃月 Chinaz 时间:2026-01-09 14:24:26

在过去的几年中,人工智能领域的开发者们通常依赖于大型云计算集群来推动技术进步。然而,随着小型和中型语言模型变得越来越强大,开发者们开始质疑:如果小模型能做得更多,为什么 AI 开发仍然依赖于远程且昂贵的基础设施呢?

本地计算的进展一直滞后,即使是高端工作站也在加载这些先进模型时遇到内存瓶颈。面对 30 亿或 70 亿参数模型的团队,常常不得不使用模型压缩、分片或外部 GPU 服务器等解决方案。而对于一些受监管行业,这些工作绕不开的数据处理方案并不简单。此外,初创企业和研究人员在访问云计算实例时,常常面临高昂的费用和迭代速度的影响。

为了解决这些问题,硬件制造商如戴尔开始加大投资。戴尔最新推出的 Pro Max 与 GB10 组合旨在为开发者提供更强大的本地 AI 计算能力,帮助他们突破硬件限制。戴尔表示,训练超过 70 亿参数的模型需要超出大多数高端工作站的计算资源。

通过将 NVIDIA 的 Grace Blackwell 架构引入桌面形式,戴尔希望将硬件与这一新一代小型但计算密集的 AI 工作负载相结合。戴尔 Pro Max 与 GB10 的配置包括 128GB 的统一 LPDDR5X 内存,运行 Ubuntu Linux 及 NVIDIA DGX OS,预配置了 CUDA、Docker、JupyterLab 和 NVIDIA AI 企业堆栈。

戴尔称该系统能提供每秒高达 1000 万亿次的 FP4 AI 性能,让开发者可以在本地微调和原型设计高达 200 亿参数的模型。将如此强大的计算能力压缩到仅 1.2 千克、尺寸为 150mm x 150mm x 50.5mm 的设备中,充分展示了工程上的成就。

通过统一内存,开发者可以在单一地址空间内处理大型模型,避免了 CPU/GPU 内存池之间的瓶颈。学术实验室可以在不依赖共享集群的情况下运行 Meta 的开源 Llama 模型,初创企业则可以在早期研发阶段进行本地实验,而无需一开始就投入云计算费用。

戴尔还提到,对于需要更大计算能力的团队,可以将两个 GB10 系统组合使用,形成一个单一节点,支持高达 400 亿参数的模型。随着 DGX OS 的预配置,团队可以迅速启动训练任务,并使用额外的 SDK 和编排工具进行操作。

划重点:

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。