当前位置: 首页 » 资讯 » 科技头条 » 正文

国泰海通:DeepSeek~V3.1加强智能体支持 与国产AI芯片协同创新

IP属地 中国·北京 编辑:沈瑾瑜 智通财经 时间:2025-08-27 14:30:09

智通财经APP获悉,国泰海通发布研报称,DeepSeek V3.1在多项指标上性能大幅领先R1-0528,加强了智能体支持,独创性使用UE8M0 FP8 Scale精度,与国产AI芯片协同创新。DeepSeek-V3.1加强了智能体支持,并且针对下一代国产AI芯片设计;该行维持计算机板块“增持”评级。

国泰海通主要观点如下:

DeepSeek-V3.1发布包含三大升级

①混合推理架构,一个模型同时支持思考模式和非思考模式,官方App与网页端模型已同步升级为DeepSeek-V3.1,用户可以通过“深度思考”按钮,实现思考模式和非思考模式自由切换;②更高的思考效率,相比DeepSeek-R1-0528,DeepSeek-V3.1-Think能在更短时间内给出答案;③更强的Agent能力,通过Post-Training优化,新模型在工具使用与智能体任务中的表现有较大提升。

工具调用/智能体支持进一步增强

①编程智能体,在代码修复测评SWE与命令行终端环境下的复杂任务(Terminal-Bench)测试中,DeepSeek-V3.1相比之前的DeepSeek系列模型有明显提高。②搜索智能体,DeepSeek-V3.1在多项搜索评测指标上取得了较大提升。在需要多步推理的复杂搜索测试(browsecomp)与多学科专家级难题测试(HLE)上,DeepSeek-V3.1性能已大幅领先R1-0528。③思考效率提升,测试结果显示,经过思维链压缩训练后,V3.1-Think在输出token数减少20%-50%的情况下,各项任务的平均表现与R1-0528持平。同时,V3.1在非思考模式下的输出长度也得到了有效控制,相比于DeepSeek-V3-0324,能够在输出长度明显减少的情况下保持相同的模型性能。

API&模型开源,使用UE8M0 FP8 Scale精度

①V3.1的Base模型在V3的基础上重新做了外扩训练,一共增加训练了840Btokens。Base模型与后训练模型均已在Hugging face与魔搭开源。②需要注意的是,DeepSeek-V3.1使用了UE8M0 FP8 Scale的参数精度,UE8M0 FP8是针对即将发布的下一代国产芯片设计。③另外,V3.1对分词器及chat template进行了较大调整,与DeepSeek-V3存在明显差异。

风险提示:大模型技术发展不及预期;下游应用拓展不及预期;与AI算力硬件协同不及预期。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。