当前位置: 首页 » 资讯 » 科技头条 » 正文

火山引擎有了它自己的Token经济学

IP属地 中国·北京 编辑:吴婷 鞭牛士 时间:2025-12-19 12:06:09

Token,Token,还是Token。

在12月18日的FORCE原动力大会上,火山引擎总裁谭待半小时的开场演讲里提了18次“Token”,而“云”则只出现了7次。

火山也再次更新了备受瞩目的豆包大模型最新日均Token调用量:

50万亿。

这一指标从发布至今实现了417 倍增长,相比去年 12 月则是超 10 倍增长。作为对比,Google10月最新公布的月均Token直接换算为日均量的数据是43万亿。豆包大模型的调用量已经是中国第一、全球第三。

而根据IDC的报告,火山引擎在中国的公有云大模型的服务调用量上也是稳居第一,MaaS市场份额从2024年的46.4%进一步提升到了今年的49.2%。

“也就是说,在中国公有云上每产生的两个Tokens就有一个是火山引擎生产的。”谭待在当天面对台下5000名观众说道。

在当天的发布中,一如既往由火山来更新了字节最新模型的进展。

豆包大模型1.8正式亮相,它在多项指标上显著提升,继续走All-in-One的技术路线,文字、代码、Agent、音频,图视频等能力,全部在同一个基础模型里演进;而专门为视频生成服务的Seedance 1.5 pro也同步推出,在音画同步、中文及方言处理上做到了“世界领先水平”。

字节要传达的信息明显:豆包大模型创造着Token,且它的进化方向也正对应着今天Token消耗的结构性变化——从“推理取代训练”推动Token消耗,到今天多模态+Agent成为Token的绝对大头,这些需求都可以被火山提供的服务满足。

这一切迅猛增长的背后,火山引擎正在建立起一套它自己的Token经济学。

1

更多的Token就是代表更多智能

Token,是大模型处理信息的基本单位。无论是文字、图像还是视频,在模型中都在被转换为Token序列进行计算。本质上,Token就是人们对AI的调用量。

但这背后存在一个问题:由于Token的计算方式基于长度,所以一篇文章和一段关键的代码可能消耗相似的Token数量。那么,纯粹的以Token数量来衡量,能否真实反映AI创造的价值?

火山引擎的算法人员在和我们的交流中回忆,其实曾经火山内部也有过类似争论,但最终的结论是:Token量一定是对的指标。

“AI要在实际场景产生价值,大家肯定要把它用起来,不管单位价值有大有小,但实际上一定是跟Token用量正相关的。可能你最终的那个关键决策对应的只是‘是’或者‘否’,一个Token,但得出这个结论必然已经用掉了大量Token。”

所以火山内部最终明确,更多的Token就是代表更多智能。

而今天Token的增长,其内在结构也在悄然变化。火山引擎智能算法负责人吴迪提供了一个演化路径:

“可能到了2027,2028年,一个普通的C端用户从AI助手得到的很多的信号就是视觉的,你不会看到大段大段的文字了。那么,到时候LLM会以coding和agent的形式下沉到整个数字世界的底层运行逻辑里。”

换言之,Token会分层,LLM会向下成为底座,多模态的视觉、交互Token将在上层涌现。

这就会让Token成为一个持续增长的指标,也是一个有效指标。吴迪预测,到2030年,国内市场的Token消耗量将是现在的百倍以上。届时,衡量企业智能化程度的核心指标,将从其拥有的GPU数量转变为消耗的Token总量,因为它是唯一能同时穿透“模型能力、使用频率和真实需求”的统一指标。

1

云设施必须以模型为中心重构

更多Token意味更多智能,那么如何让企业客户更好生成它们需要的Token,就是火山作为从字节内部走出的“AI云原生”基础设施的任务。

过往云计算所习惯的一整套体系也因此出现“不适”,它更多是一个围绕算力设计的体系,而火山认为新的需求注定是围绕模型的。

“传统 IaaS、PaaS、SaaS分层规划的IT架构不再有效,以模型为中心的AI云原生架构正在形成。”谭待说。

此次的一整套体系也由此诞生。

火山推出了“推理代工”,企业可将训练好的模型托管至火山,按实际Token消耗付费,无需自建推理集群;

Agent开发套件(ADK) 全面升级,支持动态运行时、多会话共享、强身份传递与内置工具链;

智能端点(Endpoint) 支持模型路由,可根据效果、成本等策略自动分流至豆包、DeepSeek、Kimi等多模型后端;

方舟平台进一步升级,支持客户在自有场景中做RL 强化学习等的微调。

而且这一系列产品里的很多细节,都体现出很多根本性差异。

例如,Agent开发套件(ADK) 的动态运行时设计,直接挑战了行业惯例。AWS AgentCore为每个会话启动一个独立运行时,而火山采用多会话共享模式。

火山引擎云基础产品负责人田涛涛直言,这是一个行业惯性的问题,AgentCore为每个session起一个Runtime,过去可以,但进入模型时代就太奢侈了,而火山对成本敏感,字节自己内部就一直有不同的更AI原生的需求,因此本就有不同的设计,现在可以推广给更多模型用户。

在火山看来,人们最终会“跃过”对算力的关注,最终直接冲着模型而来。

“你很难想象五年后新的创业者还会去云上租GPU、开数据库。到时候在他们创业的第一天,他们会直接向云服务商‘要Token’,直接要的就是调用模型和配套工具。”吴迪说。

“我们已经把像Response API、分布式的KV Cache、良好的P/D分离、一大堆高品质的内置Tools组装好了,等着你把你的一个齿轮装上来,这辆车就能跑。”

火山还配套改进了模型服务的定价模式,推出了一个“AI节省计划”,让企业达到模型使用成本的全局最优解。

“客户只需要为用了的Token付钱。”

1

模型训练和市场需求一杆子打通

现在我们可以来看看字节和火山今天已经有了什么:

最大规模的云计算需求:内部支撑抖音等国民级产品带来的规模效应和成本优势。

最多用户的大模型产品:豆包。而且在火山的视角,它也是一个最大的Agent产品。

第一的Token调用量:50万亿/天,且还在猛涨。

以及支持着豆包app和抖音这种巨量真实需求的多模态和推理大一统的豆包大模型。

这种全栈系统能力是今天最重要AI玩家必备的能力,横向对比,可以把目前的玩家分为三种路线:

OpenAI + 微软路线:模型自己的,云设施是战略伙伴的。阿里云路线:开源模型长在自己云上,然后近期在强推产品。Google路线:全部自研,模型闭源,产品到研发直接全面打通。

这里面,字节的路线很像Google。

豆包就对应着Gemini,一个大一统的多模态agent模型。Seedance 1.5紧跟Veo3,甚至超过了对方。这一切的技术基础也和Google类似,都长在自己的以AI为核心的机器学习平台和云服务上,然后这些“Gemini同款”和“豆包同款”细化成产品再提供给外界。

而尚未被太多关注到的另一个“相似”,则是对待模型技术的方式上。

Google在Gemini 3的“翻身仗”后分享了很多内部复盘,其中最重要一个因素就是模型、研发、产品和需求的统一打通。而字节如何训练模型此前并未被外界了解,它与大多模型公司一个非常大的不同是,它把真实市场需求直接一杆子打通到了模型训练层面。

火山引擎作为模型对外统一的出口,也有自己的算法人员,他们和字节的模型部门Seed紧密合作,甚至是“混合办公”和各种灵活的配合方式,而火山引擎团队所获取到的市场需求情况,可以直接影响模型研发方向和决策。

火山的模型策略团队会把市场上的需求反馈收集和抽象出来,直接影响到模型的重要功能和研发方向。

这都直接体现在豆包大模型的身上:

豆包之所以是一个大一统的模型,除了技术路线的选择,也是从客户体验出发:火山的客户们认为模型版本太多了,甚至字节内部的“用户”都搞不清楚各方面的区别,所以这个模型必须all in one来降低选择成本。

字节认为,今天训练模型最重要的是评估体系,而它绝对不应该只是公开的benchmark,必须用真实业务价值来衡量模型能力。字节内部已经为B端建设了大量benchmark,模型开发成果必须真正符合实际的经济价值要求。

于是Seedance会在模型层面增加一个Draft样片的能力,让用户不是抽卡,而是提前做预览判断;豆包模型在建设工具调用能力之外,直接在配套API中就配套做了许多built in的工具。128k上下文这种看起来能用来炫技但事实上实际需求并不高的能力,就会被去掉。

“在25年,有超过100万家企业和个人使用了火山引擎的大模型服务,覆盖了100多个行业,我们也对他们在火山方舟上的用量进行了匿名统计,我们发现,有超过100家企业在火山引擎累计Tokens使用量超过了1万亿。”谭待在发布会上说。

这可能是比市场份额增长更值得玩味的一组数据。 它最能体现字节这种用需求指引模型发展的方式所带来的收益。

所以,如果我们来拆解一下,字节的Token经济学就是:

1. 越多的Token意味越高智能

Token是智能的度量衡,其增长与结构变化指引技术演进。

2. 服务AI的云必须以模型为中心重构

传统云厂商的惯性已经太大,而火山服务的最大客户就是字节自己,字节就是一个长在AI和模型上的公司,火山解决的一直是AI的需求,现在这些需求变成外界的广泛需求,它的技术思路就可以用来重构整个云行业的方案。

3. Agent的普及会让Token从原材料变为更高级的智能单元,进而带来更大价值

谭待曾经形容,目前基于Token的商业模式还很原始,而今天他认为,随着Agent的进步和在企业里的普及,Token最终会走出今天“原材料”的定位。

Agent 可将模型串联,云平台和中间件进一步把Tokens组装成Agents,并实现Agent和现有工作流、Agent和Agent之间的智能互通,以 API 或完整 Agent 的方式提供服务,从更高抽象层次创造价值。

“今天讨论Token,是从底层操作系统角度看,是在 IT 预算环节考虑;而抽象成 Agent 后,可从 BPO (业务流程外包)角度看待,那么它就是在扩大整个市场的规模了。”谭待说。

“人们常说的10万亿Agent市场,核心就是这个逻辑。”(硅星人Pro)

标签: 火山引擎

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。