当前位置: 首页 » 资讯 » 科技头条 » 正文

中国科研团队发布类脑脉冲大模型“瞬悉” 1.0 开启新一代人工智能发展新路径

IP属地 中国·北京 编辑:柳晴雪 ITBEAR 时间:2025-09-09 14:24:48

中国科学院自动化研究所科研团队近日宣布,成功研发并发布全球首个基于国产GPU算力集群的类脑脉冲大模型——“瞬悉”1.0(SpikingBrain-1.0)。该模型通过创新性的“内生复杂性”理论架构,实现了在超长序列处理、训练效率及生态构建等领域的多项突破,为人工智能发展开辟了低功耗、高效率的新路径。

与传统基于Transformer架构的大模型不同,“瞬悉”1.0以脉冲神经元为核心计算单元,首次提出大规模类脑线性基础模型架构,并完全依托国产GPU平台完成全流程训练与推理。这一创新解决了脉冲驱动下模型性能退化的难题,使其在法律文档分析、医学影像处理、高能粒子物理实验等超长序列任务中展现出显著效率优势。例如,在DNA序列分析和分子动力学轨迹模拟场景中,模型的处理速度较传统方法提升了数个数量级。

研发团队负责人李国齐研究员介绍,模型通过动态阈值脉冲化策略与混合专家模型结合,实现了超过69%的稀疏度,长序列脉冲占比仅1.85%,大幅降低了计算资源消耗。在训练阶段,模型仅需主流大模型2%的预训练数据量,即可在多任务语言理解、常识推理等任务中达到同等性能水平;推理阶段则利用脉冲神经元的事件驱动特性,将复杂度降至常数级别,显存占用不随序列长度增加而显著上升。

技术突破体现在四大核心领域:其一,模型训练复杂度为线性或近线性,显著提升长序列训练效率;其二,推理效率实现数量级提升,尤其适用于超长序列场景;其三,构建了适配国产GPU集群的完整生态,包括高效训练框架、算子库及并行策略;其四,通过多尺度稀疏机制降低能耗,为下一代神经形态芯片设计提供了理论支撑。

对比主流Transformer模型,“瞬悉”1.0的优势在于突破了序列长度对计算资源的制约。传统模型训练成本随序列长度平方级增长,推理显存占用线性增加,而“瞬悉”1.0通过脉冲神经元的内生动力学特性,将计算复杂度控制在线性范围内。研究团队已公开模型代码、测试平台及中英文技术报告,并强调该架构为构建自主可控的非Transformer生态提供了可行性范本。

据悉,该模型的理论基础源于对大脑神经元工作机制的深度模拟。研究人员揭示,现有线性注意力机制本质上是树突计算的简化形式,而“瞬悉”1.0通过建立脉冲神经元与线性注意力的数学联系,为模型复杂度与性能的同步提升指明了方向。这一成果不仅推动了类脑计算的发展,也为低功耗人工智能设备的落地应用奠定了技术基础。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。