当前位置: 首页 » 资讯 » 科技头条 » 正文

蚂蚁百灵发布轻量级推理模型 Ring-mini-2.0,将逐步全面开源

IP属地 中国·北京 雷峰网 时间:2025-09-16 16:33:21

近日,据百灵大模型公众号,蚂蚁百灵团队发布并开源了Ring-mini-2.0推理模型。它是基于此前蚂蚁百灵发布的基础语言模型 Ling 2.0 架构,深度优化的高性能推理型 MoE 模型。它在总参数量16B、仅激活1.4B参数的情况下,即可达到10B级别以下dense 模型的综合推理能力,尤其在逻辑推理、代码与数学任务中表现卓越,并支持 128K 长上下文及 300+ token/s 的高速生成。

经过 Long-COT SFT、更稳定持续的RLVR以及RLHF联合优化,Ring-mini-2.0复杂推理的稳定性与泛化性得到显著提升。在多项高难度基准(LiveCodeBench、AIME 2025、GPQA、ARC-AGI-v1 等)中,在输出长度相当的情况下,Ring-mini-2.0性能显著超越10B以下dense 模型,甚至媲美更大参数量的MoE模型(如 gpt-oss-20B-medium),在逻辑推理方面尤为突出。


(Ring-mini-2.0性能表现)

据了解,Ring-mini-2.0继承了Ling 2.0 系列的高效 MoE 设计,仅激活 1.4B 参数,通过 1/32 专家激活比、MTP 层等架构优化,达到约 7–8B dense 模型的等效性能。得益于小激活、高稀疏度的设计,Ring-mini-2.0 在H20 部署下实现 300+ token/s 的吞吐,结合 Expert Dual Streaming 推理优化后可进一步提升至 500+ token/s,大幅降低高并发场景下 Thinking 模型的推理成本。同时,借助 YaRN 外推可支持 128K 长上下文,长输出场景下相对加速比最高可达 7 倍以上。

蚂蚁百灵团队表示将完整开放 Ring-mini-2.0 的模型权重、训练数据和 RLVR+RLHF 训练策略。凭借“小而优”的特点,Ring-mini-2.0 有望成为小尺寸推理模型的首选,为学术和工业界提供理想的研究与应用起点。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。