![]()
出品|虎嗅科技组
作者|宋思杭
编辑|苗正卿
头图|奇绩创坛
虎嗅独家获悉,截至目前,小冰的所有创始团队成员已全部离开公司,而曾担任小冰 CEO 的李笛,也已悄然开启他的下一段创业旅程——一家名为 Nextie 明日新程的新公司。
据了解,Nextie 已于 12 月 7 日在奇绩创坛的支持下成立,并正在启动第二轮融资。对此,虎嗅了解到,最新一轮融资金额预计达到数千万美元,估值暂未确定。
同一天,他带着他的新成果,以第 54 号项目亮相在奇绩创坛 Demo Day 的路演现场。但他并未像多数创业者那样长篇展示产品,也没有给出完整叙述,整场亮相看上去更像一次提前放出的预告。
但就在奇绩路演的几天前,李笛非常激昂地对虎嗅谈及了他做大模型的梦想、初衷,以及在他设想中,大模型应该是什么样子。他对虎嗅呈现出来的是,他正在构建一个完全不同于当前行业叙事的 AI 体系。
外界普遍以为,在经历组织动荡和公司治理风波后,他会选择暂时离开 AI 舞台。但交流中的他并没有表现出任何疲态,反而像是回到了自己长期被搁置的原始命题前。
他提到,Nextie 想做的,不是把小冰继续做下去,而是走小冰没能走完的那条路。“未来也许有一天,会把小冰收回来。”他说得异常平静。
李笛的团队也再次聚拢,目前Nextie创始成员包括小冰联合创始人、前微软首席研发总监曾敏,小冰大模型与算法负责人、前英特尔架构师王文澜,都加入了 Nextie。
与当下的AI创业项目不同,Nextie 并不打算推出一个更大的大模型,也不希望再做一款对话式 AI。在李笛看来,Chatbot 已经成为一种误导:它的底层逻辑——依赖海量知识、依赖超长上下文、依赖单一模型的输出——从一开始就与“真正的智能”并无关联。大模型学习的是知识,但知识本身已经过载;上下文变长,噪音就会变多;让模型读更多文本,并不能让它学会决策。“智能不会来自某一个更大的模型。”他说。
他真正想构建的是一种“认知模型”。这套模型的核心不是知识,而是认知结构;不是让模型掌握更多信息,而是让不同认知体在有限信息下做出更清晰的推理。他将这套体系称之为“群体智能”。
这是一个在当前国内大模型语境下仍然相对陌生的概念:真正能解决复杂问题的,不是一个参数更大的模型,而是一群认知路径不同的智能体,在同一问题下协同工作。在 Nextie 的系统里,每个 agent 都拥有不同的思维方式和任务边界,不再是为了扮演角色,是为了提供真正异构的视角。他们会彼此挑战、互相复审、展示推理链路,最终共同构成一个“认知网络”。
李笛说:“我们做的不是一个更聪明的 AI,而是让一个人拥有一个决策团。毕竟每个人之所以会做错决策,根本上源于认知不够”。
这套理念最终落成了面向 C 端的产品“团子”。它不是一个聊天机器人。在李笛看来,聊天框这种表达方式天然受限,它将思考压缩成线性的问答,既无法容纳多视角,也无法展示推理过程。他认为,未来 AI 的界面应该更像白板、像思维导图,是一种能够并行呈现多种思考路径的空间。“团子”将围绕用户的问题,调动不同智能体共同构建答案。
这种做法在当前行业叙事下显得不合时宜。过去两年,行业几乎形成一个共识:更大参数的模型、更长的上下文、更强的知识覆盖,是通往“更智能”的唯一道路。但在与虎嗅的交流里,李笛明显站在另外一侧。他不断强调“知识背后的认知”,强调“答案背后的过程”和“群体结构”,这些反共识的表达几乎全部指向同一个判断:目前的大模型并没有触及智能的本质。
当前状态下的李笛,似乎并不急于证明什么。现在的他,正在构建的是一个未来可能与人类并行思考,而不是为人类回答问题的系统。而 Nextie,只是这件事的起点。
智能拐点未到达前,反共识路线出现了
如今的大模型行业正走到一个新的临界点。过去三年,情绪与节奏都经历了急转:2023 年是百模大战,企业比拼的是规模、速度与参数堆叠;到了 2024 年,资本开始收紧,模型公司从发布会和测试榜单退回到现实的交付现场;进入 2025 年,行业第一次出现明显的“断层”,有人悄然离场,有人依旧徘徊在商业化入口,而真正跑出稳定路径的公司寥寥无几。
但问题从来不只是商业模式有多难,或者说,与其探讨商业模式的不成功,还不如探讨更本质、更深层的矛盾,即技术本身。
目前行业内的现状是,大模型依靠知识规模获得“智力”,但知识规模与推理能力之间的张力正在被不断放大,即上下文越长,噪音越大;参数越多,模型越难解释;数据越丰富,系统越难以做出稳定决策。现在海内外已经有越来越多公司意识到,“能回答问题”已经不构成竞争力,真正的难关是“能否参与决策”“能否给出结构化推理”。当底层智能还处在半成熟阶段时,商业化自然会呈现反复。
也正因为行业还没完全对,不同的声音才显得格外必要。
共识有时会让赛道看上去整齐划一,但真正值得追问的是:我们是否在用错误的方式想象智能?是否误把知识规模当成能力本身?是否把“大模型的强大”误解为“智能已经足够强大”?这些问题在大模型最繁荣的阶段被忽略。但今天的行业已经开始反思。
在这样的背景下,李笛正在做的事情就显得格外“反共识”。他并未加入算力军备,也未执念于参数规模;在外界聚焦“对齐”“一致性”时,他讨论的是认知结构、视角差异和群体推理。他试图绕开“大模型 = 智能”的主流假设,重新回答一个更基础的问题:如果单体模型无法跨过智能拐点,能否通过另一种结构抵达?
当然,海外已经有团队在探讨另一种结构。而在国内,李笛希望能成为团队另一种结构可能的创业团队。
尽管技术仍处在早期阶段,也难以预见最终形态,但行业本身或许正需要这种“不那么一致”的探索。然而,对李笛来说,这条路并不容易。
他所说的“认知模型”在国内几乎没有先例,这也意味着他必须同时面对三道门槛:
其一是资本市场的接受度。在国内的资本市场环境下,投资人仍然习惯看参数、看速度、看短期可交付,那么是否会有人真正愿意押注一条未经验证的路线?其二是技术成熟度,因为群体智能的结构远比堆叠模型复杂,这也意味着它需要跨越多个尚未成形的技术段落;
第三是 C 端商业模式的压力。目前,国内破亿月活的C端应用仅有两个,都还没有实现成功的商业路径。那么一个全新范式到底如何以消费者能够理解的方式落地,并形成持续价值?
在这些挑战的缝隙里,反共识与坚持之间的张力,显得尤为突出。
野心在前,耐心在后
如果只从外部视角去理解李笛的选择,这条路径确实容易被贴上“折腾”的标签:
刚退出一家成熟体系,又迅速投入一个几乎没有行业共识的方向,没有现成做法,也没有明确参照物。但真正接触下来,我发现了一种与前者截然相反的气质,他非常清楚自己在寻找什么,甚至会让人觉得,他过去几年所有的停顿,都只是这次重新启程的铺垫。
在谈到“群体智能”时,他的表达没有任何渲染或鼓动,不试图把它包装成“下一代 AI”,也不刻意把它放到行业竞争框架中。更多时候,他像是在陈述一个被内部推演无数遍的基本前提:真正的复杂问题,从来不是靠单个模型解决的。和许多创业者热衷于讲“能力提升多少倍”、“推理速度更快”不同,他更在意的始终是三个问题:过程是否透明、认知是否独立、不同视角之间能否真正发生挑战。
当虎嗅问道,不同智能体之间互相debate(争论)的过程,用户能否看到?李笛回答说,这与现在大模型的推理链路不同,群体智能的所有推演、争论与协作都会以各自的方式被呈现,而不是被隐藏在系统内部。
他还举了两个例子,无论是此前引发广泛争议的俞敏洪公开信信、还是西贝的公关危机等等事件,未来当类似事件再次出现时,群体智能或许都能作为辅助系统,为个体和组织提供更清晰的判断依据,帮助人类做出更可控、更聪明的决策。
在他的构想里,这个系统更像一个被抽象后的组织:有人负责提出反驳,有人负责验证细节,有人做结构化整理。每个智能体都有自己的边界、偏置和认知方式,而不是统一模版下的角色扮演。他说这些时语气平静。
在笔者看来,他并不急于确定界面或形态,而是更专注于底层逻辑是否自洽、是否值得沿着这条路径继续往前推。
这种状态同时包含着野心与耐心。野心在于,他试图回答的不是“如何让模型更强”,而是“如何让一个普通用户获得一个团队的智能”;耐心在于,他几乎已经接受这件事不会在短时间内被理解,也不会立刻获得市场验证。有些技术路线确实需要慢慢长出生命力,而不是在商业压力下迅速定型。
在当下的大模型行业,这样的姿态并不常见。
本文来自虎嗅,原文链接:https://www.huxiu.com/article/4817080.html?f=wyxwapp





京公网安备 11011402013531号