当前位置: 首页 » 资讯 » 科技头条 » 正文

DeepSeek V3.2 双模型发布:线性复杂度长文本 + 无惩罚深度思考,开源阵营再冲第一梯队

IP属地 中国·北京 编辑:钟景轩 Chinaz 时间:2025-12-03 10:24:23

DeepSeek 发布 V3.2(标准版)与 V3.2-Speciale(深度思考版),官方评测显示:

- V3.2在128k 上下文场景下与 GPT-5互有胜负

- V3.2-Speciale 在 MMLU、HumanEval 等基准中与 Gemini3Pro 打平,IMO2025盲测获金牌分数线83.3%

转正稀疏注意力(DSA)是核心升级:通过“目录”式路由token,将长文本计算复杂度从O(n²)降至O(n),显存占用下降40%,推理速度提升2.2倍,首次在开源模型实现百万token单卡推理。

后训练环节,团队把>10%整群算力投入强化学习,采用组对强化学习(GRPO)+多数投票,让模型在代码、数学与工具调用任务上逼近闭源对手。V3.2-Speciale取消“思考长度惩罚”,鼓励更长链式推理,平均输出token较Gemini3Pro高32%,但准确率提升4.8个百分点。

模型已上线GitHub与Hugging Face,权重采用Apache2.0协议,允许商业化。DeepSeek表示,下一步将开源长文本DSA内核与RL训练框架,继续把“闭源优势”转化为社区基础设施。行业评论称,若后续版本保持迭代节奏,开源阵营有望在2026年前实现“长文本+推理”双重领先。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。