IT之家 1 月 6 日消息,科技媒体 TechPowerUp 今天(1 月 6 日)发布博文,报道称在 CES 2026 展会期间,英伟达发布了 DGX Spark 和 DGX Station 两款桌面级 AI 超级计算机,宣告本地 AI 开发进入“超算时代”。
这两款设备基于最新的 NVIDIA Grace Blackwell 架构,配备大容量统一内存和 Petaflop(千万亿次)级 AI 性能。
![]()
其核心目标是让开发者、研究人员和数据科学家无需依赖云端集群,即可在本地桌面上开发、微调并运行从 1000 亿到 1 万亿参数的开源及前沿 AI 模型,打通了从本地原型设计到云端大规模扩展的通道。
DGX Spark:平衡效能与便携
作为入门级旗舰,DGX Spark 专为 1000 亿参数级别的模型设计。该系统引入了 NVFP4 数据格式,能将 AI 模型压缩高达 70% 且不损失智能表现。
![]()
图源:英伟达
在实际应用场景中,DGX Spark 展现了惊人的性能优势:在运行 Black Forest Labs 的 FLUX.2 等视频生成模型时,其速度相比搭载 M4 Max 芯片的顶级 MacBook Pro 快了 8 倍。
![]()
![]()
![]()
此外,英伟达优化与开源社区(如 llama.cpp)的深度合作,该系统在运行 SOTA(最先进)模型时平均性能提升了 35%,并显著加快了 LLM(大语言模型)的加载速度。
![]()
DGX Station:单机运行万亿参数模型
面向企业级和前沿实验室的 DGX Station 则不仅是性能怪兽,更是行业标杆。该机型搭载 GB300 Grace Blackwell Ultra 超级芯片,配备高达 775 GB 的 FP4 精度一致性内存,这一配置让其能够本地运行高达 1 万亿参数的巨型模型。
IT之家注:一致性内存(Coherent Memory)指在 CPU 和 GPU 之间共享同一地址空间并实现硬件级数据同步的架构,通过 2026 年主流的 NVLink-C2C 或 PCIe Gen6/7 互连技术,数据可以在不同处理器间自由流动,无需显式的内存拷贝过程,显著降低了延迟。
FP4 精度是一种 4 位浮点格式(通常采用 1 位符号、2 位指数、1 位尾数的 E2M1 布局),专为 Blackwell 及后续 Rubin 架构优化,能在保持模型精度的前提下,将显存占用降低至 FP16 的四分之一,吞吐量提升高达 2-3 倍。
英伟达明确列出了其支持的一系列前沿模型,包括 Kimi-K2 Thinking、DeepSeek-V3.2、Mistral Large 3、Meta Llama 4 Maverick 以及 OpenAI gpt-oss-120b。
vLLM 核心维护者 Kaichao You 表示,DGX Station 改变了开发动态,让团队能以极低成本在本地测试 GB300 专属特性。
为了构建完整的本地 AI 生态,NVIDIA 宣布了多项软件与合作伙伴计划。DGX Spark 现已支持 NVIDIA AI Enterprise 软件栈,并提供了针对机器人(如 Hugging Face Reachy Mini)、基因组学和金融分析的全新开发手册(Playbooks)。
在硬件供应方面,DGX Spark 及合作伙伴推出的 GB10 系统即日起通过戴尔、惠普、联想、华硕等厂商发售,而旗舰级的 DGX Station 将于今年晚些时候正式上市。





京公网安备 11011402013531号