![]()
出品|虎嗅科技组
作者|宋思杭
编辑|苗正卿
头图|中关村论坛现场
上一次智谱AI与月之暗面同台,还是在1月10日。那天是智谱通过港交所聆讯后的第三天,一个周六,在中关村国际创新中心举行了一场名为AGI-Next的前言峰会。
两个半月后,故事推进得更快了。
市场消息显示,月之暗面正考虑在香港进行首次公司募股(IPO),目前已与中金公司及高盛展开磋商,相关事件仍处于初期阶段,具体时间尚未确定。对此,虎嗅向月之暗面方面求证,对方不予置评。
几乎在同一时间,两家公司再次同台,还是中关村国际创新中心,在中关村论坛的现场。
![]()
台上坐着的,是这一轮大模型浪潮中最核心的一批玩家:月之暗面创始人杨植麟、智谱CEO张鹏、无问芯穹创始人夏立雪、小米MiMo负责人罗福莉,以及香港大学助理教授黄超。
他们讨论的,是最近一个月,让整个行业“重新忙起来”的那只龙虾OpenClaw。
过去一个月,这只“龙虾”几乎把大模型的调用曲线重新拉了一遍。包括智谱、Kimi,以及小米MiMo在内的多家模型厂商,都在这一波中吃到了最直接的红利。
3月下旬,在全球最大的模型API聚合平台OpenRouter上,一款代号为 Hunter Alpha 的模型调用量迅速冲上榜首。随后小米认领,这一模型正是MiMo-V2-Pro。
更重要的是,龙虾带来的,并不只是调用量的暴涨。它让行业清晰地看到:大模型开始“干活”之后,一整套新的技术与商业逻辑,正在被同时改写。
这场讨论,指向的是推理阶段正在出现的几条新分水岭。
1、模型开始承担“完整任务链路”
首先,在这场对话中,点出了这只龙虾的价值,首先是几位模型玩家对它的定义,以及它能带来什么。
过去,用户是给大模型提问题,大模型还无法帮用户做任务,或者说过去的那条链路是断的。
而现在,OpenClaw带来的最大变化,是把模型拉进了任务执行环节。用户给出的不再是问题,而是目标;系统需要完成拆解、尝试、修正和交付。
在张鹏的定义里,它更像一个“脚手架”——普通人可以在其上调用顶级模型,完成完整任务链路。用户与模型的关系,也从“提问—回答”,转向“目标—执行—迭代”。
这直接改变了评价方式。单轮回答已经不重要,关键在于复杂任务能否稳定收敛。模型第一次被放进交付结果的语境里。随之出现的,是“慢”的感知。系统在做规划、调度和试错,这些都在消耗时间,也在堆叠能力。
2、继“水电煤”之后,Token开始具备生产力属性
一个被反复提及的信号是:Token正在失控式增长。
夏立雪提到,公司Token用量从1月底开始,每两周翻一倍;而在Agent场景下,单个任务的Token消耗,是传统问答的10倍甚至100倍。
过去,在大模型对话问答时代,Token消耗量低,普通用户免费就能用得AI。但龙虾出现之后,这个共识被推翻了。Token用量在短时间内呈指数增长,已经成为新的共识。Agent任务的消耗量,远高于传统对话。
但Token不再只是成本指标。它对应的是规划、执行、调用工具的全过程,接近一种“机器工时”。这会重塑价格体系。成本上升不再是单纯压力,而是和任务价值绑定,成为新的定价基础。
3、从训练时代,快进到推理时代
简单来说,在智谱、MiniMax等大模型公司还未上市的时间段里,“训练”依然是主流。但龙虾的出现,一下加速了推理时代的到来。
而具体来解释,随着任务复杂度上升,Context长度正在迅速拉长到1M甚至10M级别。这迫使厂商开始在推理侧做结构创新,例如:Hybrid架构、Linear Attention、Long Context Efficient设计。
这些创新架构的核心目的只有一个,就是如何在更长Context下,把成本打下来、把稳定性提上去。
这也意味着竞争维度在下沉:从模型参数规模,转向推理效率、系统调度,甚至能源成本。
4、系统能力开始抵消模型差距
在Agent框架下,模型之间的能力差距被部分压缩。通过Skill和工具组合,次顶级模型也能完成复杂任务。
在这个时候,用户关注点随之变化,更看重任务结果,而非模型本身的指标。
参与门槛也在降低。构建能力逐渐向系统工程倾斜,而不再局限于算法本身。
以下是月之暗面创始人杨植麟、智谱CEO张鹏、无问芯穹创始人夏立雪、小米MiMo负责人罗福莉,以及香港大学助理教授黄超的精选部分对话:
杨植麟:现在最火的无疑就是openclaw,大家在日常使用或者类似产品时,觉得什么最有想象力或印象深刻?我们从技术角度,先请张鹏谈谈对openclaw和相关Agent的看法。
张鹏:我把它称作一个“脚手架”。它提供了在模型基础上搭建非常牢固、方便且灵活的可能性。普通人可以极低门槛地使用顶尖模型,尤其是编程和整体能力。以前想法受限于不会编程等技能,现在通过简单交流就能完成,这是一个非常大的突破。
夏立雪:我最开始用不太适应,习惯了聊天式交互,感觉openclaw很慢。后来发现它其实是能帮我完成大型任务的。从按Token聊天到现在能完成任务的Agent,想象力空间提升了,但对系统能力要求也变大了,这就是为什么一开始会觉得卡。
作为基础设施厂商,我看到的是机遇和挑战。我们的资源要支撑起这个快速增长的时代。比如我们公司从1月底开始,每两周Token量翻一番。现在的Token用量就像当年100兆手机流量的时代。我们需要更好的优化和整合,让每一个鲜活的人都能用起来。这对整个社区是巨大的优化空间。
罗福莉:我认为openclaw是一个非常革命性和颠覆性的事件。虽然深度Coding的人首选可能还是Code,但用过openclaw的人会感受到它在Agent框架设计上是领先于Code的,Code的最新更新其实都在向openclaw靠近。
它给我的最大价值在于“开源”:这有利于社区深入参与。它把国内次顶级闭源模型的上限拉得非常高,在绝大部分场景下任务完成度已非常接近最新模型,同时又靠Skill体系保证了下限。
此外,它点燃了大家的想象力。大家发现大模型外的Agent层有巨大空间,更多人,不仅是研究员,开始参与AGI变革,这在一定程度上替代了重复工作,释放了时间去做更有想象力的事。
黄超:首先是从交互模式上,openclaw给了大家一种“更有活人感”的体验。之前的Agent工具感更强,而openclaw以“软件切入”的方式,更接近大家想象中的个人贾维斯(J.A.R.V.I.S.)。
其次,它证明了架构Agent的框架可以既简单又高效。它让我们重新思考:是否需要一个All in one的超级智能体,还是需要一个轻量级操作系统或脚手架式的小管家?它让大家更有“玩起来”的心态,撬动生态里的所有工具,通过Skills或Tool的设计,赋能各行各业。
杨植麟:顺着刚才大家一直在讨论 OpenClaw,我也想接着问张鹏一个问题。智谱最近发布了新的GLM Turbo模型,这个模型在相关能力上也做了很大的增强。能否介绍一下新旧模型的不同?以及观察到的提价策略反映了什么市场情况?
张鹏:发布Turbo主要是为了从“简单的对话”转向“干活”。openclaw让大家看到大模型能干活,但干活背后的Token消耗非常高,需要规划、尝试、Debug、处理模糊需求。Turbo在这些方面做了优化,本质上是多智能体协同架构,但在能力上有偏向性加强。
关于提价,因为干活消耗的Token量是简单问答的10倍甚至100倍,成本大幅提高。长期低价竞争不利于行业发展,调整价格是为了回归正常的商业价值,让我们能持续优化模型,提供更好的服务。
![]()
杨植麟:小米最近通过发布新模型和开源技术对社区做出了贡献,小米做大模型有什么独特优势?
罗福莉:我想先不谈小米的独特优势,而是谈谈中国大模型团队的优势。
两年前,中国团队在算力受限,尤其是互联带宽受限的情况下,做出了突破:在低端算力限制下,通过模型结构创新(如DPCV3、M1、MA等)去追求最高效率。这给了我们勇气和信心。
虽然现在国产芯片不再受限,但这种对高效率、低推理成本的探索依然重要。例如,现在的Hybrid、SPA、Linear attention结构等。
为什么结构创新重要?因为openclaw越用越聪明的前提是推理Context。现在的难题是:怎么在1M或10M的长上下文下,做到成本够低、速度够快?只有这样,才能激发高生产力任务,实现模型自迭代,在复杂环境中依靠超长Context完成自我进化。
我们现在正在探索Long Context Efficient架构,以及如何在真实长距离任务上做到稳定和高上限。
更长期看,随着推理需求爆发,今年可能增长100倍,竞争维度将下探到算力、推理芯片甚至能源层面。
本文来自虎嗅,原文链接:https://www.huxiu.com/article/4846022.html?f=wyxwapp





京公网安备 11011402013531号