当前位置: 首页 » 资讯 » 科技头条 » 正文

DeepSeek又上新!模型硬刚谷歌,承认开源与闭源差距拉大

IP属地 中国·北京 第一财经资讯 时间:2025-12-01 22:11:48

12月1日晚,DeepSeek又上新了两款新模型,DeepSeek-V3.2和DeepSeek-V3.2-Speciale,在推理能力上全球领先。


两款模型有着不同的定位。DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用智能体任务场景。9月底DeepSeek发布了实验版V3.2-Exp,此次是正式版更新。在公开推理测试中,V3.2达到了GPT-5的水平,仅略低于谷歌的Gemini3 Pro。

DeepSeek-V3.2-Speciale则是此次的重头戏,其目标是“将开源模型的推理能力推向极致,探索模型能力的边界”。据介绍,Speciale是V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力,该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力。

据DeepSeek公布的数据,Speciale在多个推理基准测试中超越谷歌最先进的Gemini3 Pro。具体来看,在美国数学邀请赛、哈佛MIT数学竞赛、国际奥林匹克数学竞赛等测试中,V3.2-Speciale都超过了Gemini3 Pro,但在编程、理工科博士生测试中略逊于谷歌。


同时,Speciale模型斩获了IMO(国际数学奥林匹克)、ICPC World Finals(国际大学生程序设计竞赛全球总决赛)及IOI(国际信息学奥林匹克)金牌。其中,ICPC 与 IOI 成绩分别达到了人类选手第二名与第十名的水平。

尽管取得了这些成就,但在技术报告中,DeepSeek承认,与Gemini3 Pro等前沿闭源模型相比,自家模型仍存在一定的局限性。首先,V3.2的世界知识广度仍落后于领先的专有模型,其次在令牌(Token)效率方面,V3.2通常需要更多的令牌才能达到像Gemini3 Pro这样的模型输出质量。在解决复杂任务方面也不如前沿模型。

DeepSeek称,团队计划在未来通过增加预训练计算量来填补知识空白,并专注于优化模型推理链的智能密度以提高效率,进一步改进基础模型和训练后方案。

值得一提的是,在技术报告中,DeepSeek还谈到当前开源与闭源模型的差距在拉大。

DeepSeek表示,推理模型的发布是大模型发展的关键转折点,推动了整体性能的大幅跃升。自这一里程碑事件以来,大模型能力在快速发展。然而,过去几个月中出现了明显的分化:尽管开源圈持续取得进步,但闭源专有模型如海外谷歌、OpenAI、Anthropic的性能增长速度却显著更快。

“闭源模型与开源模型之间的性能差距并未缩小,反而日益扩大,专有系统在复杂任务中展现出越来越强的优势。”DeepSeek认为,其中有三个关键的缺陷。

一方面,在架构层面,对标准注意力机制的过度依赖严重制约了长序列处理的效率;其次,在资源分配方面,开源模型在后训练阶段的计算投入不足,限制了模型在高难度任务上的表现;最后,在AI智能体领域,开源模型在泛化能力和指令遵循能力上与专业模型相比存在明显差距,影响实际部署效果。

为了突破这些限制,DeepSeek在9月底发布实验版V3.2-Exp时,提出了稀疏注意力机制(DSA),希望大幅降低计算复杂度。在经过两个月的实验后,DeepSeek确认了稀疏注意力机制的有效性,并表示,在不牺牲长上下文性能的前提下,团队解决了关键的计算复杂性问题。

此次发布的两款模型均引入了这一机制。据DeepSeek,除了在多个推理基准测试中,V3.2的性能大幅提升外,在智能体场景中,V3.2也成为一种具有成本效益的替代方案,不仅缩小了开源模型与前沿专有模型之间的性能差距,成本也显著降低。

目前,DeepSeek的官方网页端、App 和 API 均已更新为正式版 DeepSeek-V3.2,但增强的Speciale版本目前仅以临时API服务形式开放,供社区评测与研究。

在海外社媒上,有网友认为,DeepSeek 此次发布是了不起的成就,“匹配 GPT-5和Gemini3 Pro的开源模型出现了,差距正式消除。”DeepSeek不断证明,严谨的工程设计可以超越单纯的参数规模。但如同DeepSeek所述的那样,我们仍需正视开源与闭源在整体性能上的差距,不断突破开源的边界。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。