如今,随着AI深入千行百业,对算力的要求已经“千奇百怪”;然而,当前算力效率提升困难,且市场分散、需求不统一,单一基座模型需针对场景进行智能体二次开发,算力部署与规模因复杂多样导致成本高昂,这些都成为 AI 彻底爆发的拦路虎 。
近日,一家创新企业给出自己的方案:希姆计算日前与全球领先的RISC-V CPU方案提供商CoreLab Tech以及基于RISC-V的网络芯片开发商益思芯达成合作——向CoreLab Tech定制基于Tenstorrent IP的高性能RISC-V CPU,同时携手益思芯研发面向AI集群互联的高带宽DPU。未来,希姆计算将构建自研“CPU + AI + DPU”的完整 AI 原生计算体系单元,结合已自研一年并投入运营的垂直场景智能体开发平台,实现从端侧AI垂域软硬件方案应用到云端大规模算力的全场景覆盖。
这种解决方案,在国际上也正形成趋势。以英伟达NVL72 SuperPod为例:通过集成数十个Blackwell GPU和Grace CPU,利用NVLink技术实现模块间互联,形成高带宽、低延时和高性能的SuperPod超节点,是进一步构建大规模算力集群的理想单元。华为最近在2025人工智能大会推出的昇腾CloudMatrix384超节点,以及其他国际厂商如特斯拉的Dojo、Tenstorrent的模块级解决方案,也遵循类似的设计理念——通过将基本的算力芯片和CPU单元进行高效互联,构建算力更强大的AI子系统。
这也意味着,在渴求AI的各种应用场景中,谁能更加自由地裁剪并灵活匹配算力,谁就能拔得头筹。
RISC-V同源三芯联动的战略价值
从算力效率的优化和提升上面看,AI芯片架构层面,GPU与DSA已经很大程度互相借鉴,逐渐趋同,灵活的Vector单元搭配Tensor单元成为主流,算力性能和效率的提升重心已聚焦于 AI 子系统的高度集成。
聚焦CPU+AI+DPU构成的超级节点子系统层面,统一架构可以实现软硬件极致优化,是未来智算系统的最佳方案。这就要求架构既要有坚实的生态基础和丰富的用户群体,又要具备足够的架构灵活性,以支持未来AI应用的升级和智算系统的演进。依托同一套RISC-V指令集,未来可以实现CPU通用计算单元、AI专用加速单元和DPU通信单元之间的统一访存和高效协同,在软硬件设计、生态构建等方面具有巨大优势。
从算力部署灵活度和扩展性来看,CPU+AI+DPU的方案通过“单 CPU→CPU+AI(网络直连)→CPU+AI+DPU” 的阶梯式配置模式,可以将基础计算单元的颗粒度、可扩展性与灵活度推向极致——既能覆盖从端侧、边缘到云端的全场景算力需求,又能兼容异构环境。而CoreLab Tech成系列的CPU IP,与益思芯全规格的DPU能力形成互补,为AI计算单元增加了多维度的灵活性,支持按需组合算力模组,真正实现AI算力的模组化。
从AI计算,通用计算和网络互联协同设计上看,其能够解决几个AI方面的问题:一是可以在芯片设计上,有针对性地根据大模型负载优化硬件资源分配。CPU+AI+DPU三者 “术业有专攻”,可以避免功能冗余与低效利用,既提高了效率又降低了能耗。二是协同设计可以在芯片连接方面打破传统低效PCIe架构的局限。三是协同设计能实现更好的AI硬件颗粒度。
RISC-V因其开源特性,在生态方面有天然的优势。在RISC-V国际基金会以及中国RISC-V工委会的组织下,RISC-V生态,包括指令集、仿真器、编译器以及上层应用软件、应用场景等等,可以实现最大限度的共享。基于此,希姆计算提供的RISC-V的算力子系统可以非常方便地扩展到各个应用领域,例如具身智能、工业自动化AI边缘设备、工作站、低空经济等等。
从端到云的“AI原生矩阵”
为了解决垂直领域AI应用的“最后一公里”问题,希姆计算打通了从芯片指令集到AI应用的全链条,为领域智能体打造了系统级的落地解决方案。具体而言,在模型层面,自主研发的九州大模型于2025年3月31日通过了国家级备案,全面适配政企行业应用;在平台层面,针对智能体开发过程中的痛点,推出了擎天智能体开发平台。2025年,希姆计算已成功落地多个大模型智能体产品,为数据所有者提供基于多模型的智能体开发工具,以应对庞大的推理业务需求,最终建立起“横向超节点系统+纵向智能体开发平台”的AI原生矩阵式方案。
展望未来,希姆计算将通过超节点子系统的灵活组合,实现从端、边缘到云的全场景覆盖,以最佳性价比和能耗比为多领域赋能。具体包括具身智能、基于开源RISC-V 生态的个人 AI 计算机、边缘场景 G 端 / B 端智能体一体机、嵌入式工业自动化 AI 边缘设备及数据中心大规模算力集群等。希姆计算通过结合不同场景的智能体库,充分发挥RISC-V高效灵活的特点,用软硬件结合的超节点方案,为RISC-V在智能时代的体系建设发展方向给出最佳答案!
强强联手打造世界级RISC-V芯片体系
希姆计算是全球范围内RISC-V AI发展的先锋和中坚力量,作为RISC-V国际基金会最高级别会员,同时承担RISC-V国际开源社区以及国内RISC-V工委会的很多重要工作。希姆计算是全球首批提出RISC-V Matrix 扩展方案,并发布相关开源实现代码、编译器及仿真器等工具链的企业之一。希姆计算自研的RISC-V 12nm算力芯片,经头部互联网大厂全量模型实测,平均性能达到英伟达7nm AI芯片A10的108%。希姆计算以此为基础研发的第一代RISC-V AI算力卡已成功落地多个算力集群项目。
希姆计算创始人梅迪表示:“RISC-V芯片体系构建的核心在智算系统,智算系统的根基在节点技术,希姆计算作为国内最早从事RISC-V AI芯片研发的团队,积累了大量的智算技术经验,是极少拥有从底层指令集设计一直到上层智能体开发全栈技术能力的半导体设计公司,这为我们构建高效的RISC-V智算节点技术提供有力支撑。联合业内最顶尖的CPU设计团队CoreLab Tech以及网络芯片设计公司益思芯,更是为实现这一目标打下了坚实的基础。通过最强的研发阵容,创新的商业模式,精准的产品定位,我们三方将共同打造RISC-V合作的典范,这也正是RISC-V强大生态优势的体现。”
益思芯科技自2020 年成立以来,在 DPU 及智能网卡领域成果显著。创始人黄益人提出先进P4可编程DPU 设计理念并带领团队推出国内首款 P4 可编程智能网卡 Stargate 系列,涵盖 25G 至 100G 多个产品,支持虚拟交换、RDMA、存储加速等多场景,其 VLIW 架构 P4 引擎达世界领先水平。2022 年初,DPU 产品率先在客户云数据中心完成兼容性与性能指标全项测试,实现商业化落地突破;2024 年斩获 DPU 领域 “产业领航奖”“创新引擎奖”。2025 年,Stargate-R2100 RDMA 智能网卡凭借硬件引擎优势,已和多家厂商展开合作并深度参与开源社区,推动DPU技术落地,已成为国产高性能网络芯片领域的重要力量。
黄益人先生表示:“益思芯科技与希姆计算达成战略合作,是国产DPU与AI计算技术深度融合的关键里程碑。我们高度认可希姆计算在AI计算领域的创新实力与前瞻布局。益思芯Stargate系列智能网卡将与希姆计算高性能计算芯片深度协同,联合突破数据中心算力瓶颈。双方将聚焦异构计算架构优化、软硬协同开发及场景落地,为人工智能、高性能计算等领域提供高效低耗的国产化解决方案。我们期待通过本次合作,加速构建自主可控的算力基础设施,驱动产业智能化升级。”
CoreLab Tech公司总部位于新加坡,拥有世界一流的处理器 IP 团队,在开发和交付多代CPU/NPU IP方面拥有成熟的经验,累计服务全球超过100家授权客户。CoreLab Tech致力于弥合潜力与性能之间的差距,成为值得信赖的处理器技术解决方案的“最后一公里”合作伙伴。
CoreLab Tech董事长吴雄昂(Allen Wu)对于合作表示了极大的信心,他表示:“RISC-V的优势在于灵活高效,在当今智算时代中,AI无处不在,RISC-V面向AI原生的架构设计是其区别于其他技术路线的核心竞争力。开发高性能RISC-V AI计算平台需要对定制化计算平台进行优化,CoreLab Tech拥有世界顶尖的RISC-V IP以及定制方案工程实现能力,通过和希姆计算的深度合作,共同打造AI计算节点技术,通过系统级的优化和极其细致的计算节点颗粒度,未来为全球市场提供极致性价比和易用性的算力产品。目前我们的工程进度走在世界前列,期待我们合作的产品尽快问世,对于未来的市场前景我们充满信心。”