当前位置: 首页 » 资讯 » 科技头条 » 正文

火山引擎谭待:AI云最大区别是大模型服务,要靠基础创新保持领先

IP属地 中国·北京 DeepTech深科技 时间:2025-10-18 20:08:50

“全球AI大模型正在三个方向上快速发展:一是深度思考模型正与多模态理解能力融合,二是视频、图像、语音模型逐步实现生产级水平,三是企业级复杂Agent正在走向成熟,为企业激发新的生产力潜能。”2025年10月16日,火山引擎总裁谭待在FORCE LINK AI创新巡展武汉站上指出。基于此,在当天活动上火山引擎发布了豆包大模型的一系列更新:包括豆包大模型1.6豆包大模型1.6 lite豆包语音合成模型2.0豆包声音复刻模型2.0等全新模型。

豆包系列模型迎升级,满足多领域用户需求

就豆包大模型 1.6来说,它实现了全新升级,这让其能提供Minimal、Low、Medium、High四种思考长度,平衡企业在不同场景下对模型效果、时延、成本的不同需求,并进一步提升了思考效率。以低思考长度为例,相比模型升级之前的单一思考模式,升级后的豆包1.6模型总输出Tokens下降77.5%、思考时间下降84.6%,模型效果保持不变。据了解,这也是国内首个原生支持“分档调节思考长度”的模型。在服务企业用户的过程中,火山引擎发现当开启深度思考模式,模型效果平均可提升31%,但会提高模型延迟和使用成本,这导致在实际应用中深度思考模式的使用占比仅有18%。而豆包大模型1.6可以很好地解决这一问题。

就豆包大模型1.6 lite来说,它能进一步地满足企业的多样化需求。相比旗舰版本,它更加轻量、推理速度也更快。在效果上,它也优于豆包大模型1.5 pro:在企业级场景测评中较豆包1.5 pro提升14%;在使用量最大的0-32k输入区间里,综合使用成本较豆包1.5 pro降低53.3%。

就豆包语音合成模型2.0(Doubao-Seed-TTS 2.0)和豆包声音复刻模型2.0(Doubao-Seed-ICL 2.0)来说,其具备更强的情感表现力、更精准的指令遵循能力,还能准确朗读复杂公式。据介绍,该模型基于豆包大语言模型研发语音合成新架构,让合成和复刻的声音都能进行深度语义理解,并能拓展出上下文推理能力,从单纯的文本朗读进化为“理解后的精准情感表达”。用户还能通过自然语言,实现对语速、情绪、声线、音调、风格变化的精准调整,大幅提升语音的可控性。在教育场景中,复杂公式和符号的朗读一直是业界难题,目前市面上的同类模型朗读准确率普遍低于50%。豆包语音模型对此问题进行了针对性优化,目前在小学至高中阶段全学科的复杂公式朗读中,准确率可达90%。自2024年5月首次发布以来,豆包语音模型家族已覆盖语音合成、语音识别、声音复刻、实时语音、同声传译、音乐创作、播客创作等7大领域,已覆盖超过4.6亿台智能终端。可以说,该模型在一定程度上推动语音成为了AI应用的核心交互方式。



图 | 豆包语音合成、声音复刻模型2.0发布,让声音能理解、会“表演”

同时,火山引擎还在本次活动上表示,豆包大模型的日均Tokens已经超30万亿。火山引擎总裁谭待表示:“我在很早之前就表达过这一观点:一家企业说自己AI转型做得好,首先看自己每天消耗多少Tokens,如果10亿Tokens都没有到,那肯定不好意思说自己在做AI转型。”他继续说道:“每次举办新的巡展豆包大模型的Tokens都涨了很多,未来还可以涨更多,可能会涨几百倍,这个趋势远远没有结束。对于To B的业务来说每个企业都要花钱,企业做决策都很理性,愿意花钱买Tokens当然是因为Tokens创造了价值——让它的硬件更好卖、让它的品牌更好、让它的服务效率更高、让它的成本降低等等。”

发布智能模型路由,国内首个模型智能选择解决方案

模型越来越多,当面对具体需求时如何选择模型才是最有性价比?为了解决这个选择难题,火山引擎智能模型路由(Smart Model Router)正式面世,据介绍这也是国内首个针对模型智能选择的解决方案。目前,火山引擎智能模型路由已能支持豆包大模型、DeepSeek、Qwen、Kimi等多种主流模型。以DeepSeek为例,经过实测,在效果优先模式下,在智能路由之后模型的效果相比直接使用DeepSeek-V3.1提升14%;在成本优先模式下,在实现DeepSeek-V3.1相似效果的条件下,模型的综合成本最高下降超过70%。谈及火山引擎智能路由,谭待表示:“Tokens太长也会带来成本,所以我们今天做了智能路由、做了分段的思考长度,把长度降下来也能进一步降低成本和降低开发难度。”目前,用户可以在火山方舟上选择“智能模型路由”功能,该功能支持“平衡模式”、“效果优先模式”和“成本优先模式”三种方案,可针对任务请求自动选择最合适的模型,达到效果与成本的最优解,即日起用户即可使用这一功能。谭待解释称,分档理解起来很简单,因为模型是按Tokens计费的,选择不同档位以后输出的Tokens长度不一样。很多问题没有那么复杂,不用思考那么长时间,毕竟思考那么长时间又慢又花钱,而能够自动选择就会好很多。与此同时,模型路由本身不收费,路由到哪个模型就按照哪个模型收费。

而在企业合作上,谭待表示:“很多车厂之所以选择火山引擎是因为知道在模型服务上我们做得最好。”目前,火山引擎和已经几家车厂在 座舱上做共创,并已和手机智能助手做共创,瑞幸和茶百道等绝大部分茶饮企业都在使用豆包大模型。展望未来谭待表示:“未来,我们将能看到更多案例,不仅仅是汽车和终端零售等领域,可能更加传统的能源行业合作案例也会展现。”他补充称:“AI不是一个新概念,今天的AI和10年前、20年前、5年前最大的区别是什么?最大的区别是大模型的服务。对于火山引擎来说,AI云最重要的事情也有可能是唯一的事情就是大模型服务。所以,我们一直努力地在大模型服务商之中保持领先,通过不断的基础创新、模型创新、工具创新、AI云原生的创新,来实现Tokens调用和模型服务市场的领先。”

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新