近日,美团正式发布并开源了其最新的 AI 大模型 ——LongCat-Flash-Chat。这款模型以560B 的总参数量和18.6B 到31.3B 的激活参数范围,展现了其在计算效率与性能之间的优越平衡。LongCat-Flash 采用了创新的混合专家模型(MoE)架构,利用 “零计算专家” 机制,使得每个 token 在处理时仅激活必要的参数,确保算力高效利用。
在模型架构方面,LongCat-Flash 还引入了跨层通道设计,极大提升了训练和推理的并行性。这使得模型在仅仅30天的训练时间内,就在 H800硬件上达到了单用户每秒处理100个 token 的推理速度。值得注意的是,该模型的训练过程中,采用了 PID 控制器来实时调整专家的偏置,保持激活参数的平均水平在27B,从而有效控制算力消耗。
不仅如此,LongCat-Flash 在智能体能力的提升上也做了诸多优化。通过构建自有的 Agentic 评测集和多智能体数据生成策略,该模型在各类智能体任务中表现优异,尤其是在复杂场景下,其在 VitaBench 基准测试中的得分更是位列第一。相较于参数规模更大的模型,LongCat-Flash 依然展现出卓越的智能体工具使用能力。
在通用知识方面,LongCat-Flash 同样不甘示弱。在 ArenaHard-V2测试中,其得分达到86.50,位列所有评估模型的第二;而在 MMLU 和 CEval 基准测试中分别获得89.71和90.44的高分,显示出其在语言理解和中文能力评估上的竞争力。
LongCat-Flash-Chat 以其高效的推理速度和出色的智能体表现,不仅在技术上领先同行,且其开源举措也为开发者提供了更多的研究和应用机会。
项目地址:https://github.com/meituan-longcat/LongCat-Flash-Chat
体验官网:https://longcat.ai/