当前位置: 首页 » 资讯 » 科技头条 » 正文

DeepSeek-R1之后,Kimi K2 Thinking又给OpenAI们亿点点震撼

IP属地 中国·北京 编辑:顾雨柔 TechWeb 时间:2025-11-10 10:19:07

11月10日消息,“这是又一次DeepSeek式的辉煌时刻吗?开源软件再次超越闭源软件。”国际知名开源平台Hugging Face联合创始人Thomas Wolf在社交媒体上这样评价Kimi K2 Thinking的发布。

11月6日,中国AI初创公司月之暗面(Moonshot AI)推出并开源了其最新生成式人工智能模型——Kimi K2 Thinking。这款模型在多项核心基准测试中超越了OpenAI的GPT-5和Anthropic的Claude Sonnet 4.5。

而更令人震惊的是,媒体援引据一位知情人士透露,Kimi K2 Thinking模型的训练成本为460万美元,这一数字不到GPT-3训练成本的百分之一。

开源大模型正在全球AI领域掀起一场效率革命与成本风暴,而这场风暴的中心,正逐渐转向东方。

训练成本仅460万美元?小成本模型实现大性能突破

Kimi K2 Thinking的出现,彻底刷新了业界对AI模型成本与性能的认知。这个拥有1万亿参数的混合专家模型,每次推理仅激活320亿参数。

在技术设计上,它完美平衡了模型规模与计算效率,支持256k的上下文窗口,并采用原生INT4量化技术。

在权威基准测试中,Kimi K2 Thinking展现出了令人瞩目的实力:在Humanity‘s Last Exam中取得44.9%的优异成绩,在BrowseComp测试中获得60.2%,在SWE-Bench Verified和LiveCodeBench v6两个编码评估中分别达到71.3%和83.1%。

Kimi K2 Thinking模型的核心优势之一是它的Agent能力,能够连续执行200-300次工具调用,无需人工干预即可解决复杂问题。

在编程实践中,开发者只需一句指令,就能生成一个类似Mac OS的网页操作系统,具备文本编辑器、文件管理器、画图工具等完整功能。

如果说性能表现令人赞叹,那么Kimi K2 Thinking的成本控制则堪称革命。460万美元的训练成本,放在动辄数亿美元投入的大模型赛道,几乎是一个可以忽略不计的数字。

这一数字甚至低于DeepSeek V3模型的560万美元,更是与GPT-3等国际同类大模型高达数十亿美元的训练投入形成鲜明对比。

低成本的训练并未牺牲性能,Kimi K2 Thinking在保持顶尖性能的同时,运行成本也大幅降低。

Kimi K2 Thinking团队介绍,这种成本优势源于多方面的技术创新。一方面,模型采用了改进的MuonClip优化器,在长达15.5万亿tokens的预训练过程中实现了 “零损失尖峰” ,意味着训练过程极其稳定。

另一方面,原生INT4量化技术不仅将推理速度提升了约2倍,还显著降低了部署所需的GPU显存,使模型对硬件更加友好。

Kimi K2 Thinking的API调用价格为每百万token输入1元(缓存命中)/4元(缓存未命中),输出为每百万token 16元,相比GPT-5低一个数量级。

月之暗面2025年7月11日发布初代Kimi K2模型;9月5日升级为Kimi K2-0905版本,强化Agentic Coding能力;11月6日发布Kimi-k2 thinking

以至于,有国外AI发烧友在X上直接@了 OpenAl 的 CEO 奧特曼抛出了一个极其尖锐的问题:“你(Sam)凭什么需要数万亿美元才能做出顶尖模型而现在来自中国的模型,只花了区区460万美元就已经做得和你一样好,甚至更好?这到底是为什么?”

有网友评论:这个问题,简直是把所有的硅谷 AI巨头们架在火上烤。它用一种无可辩驳的方式证明了:更聪明的算法、更专注的团队以及站在巨人(开源社区)的肩膀上,完全可以以小博大。

同时,Kimi也升级了C端的会员计划。

规则改写:开源协议的反向输出

Kimi K2 Thinking的发布,迅速引发了全球AI社区的强烈反响。Hugging Face联合创始人Thomas Wolf的评价绝非个例,来自各方的反馈都肯定了这款模型的重要意义。

业内普遍认为,Kimi K2 Thinking极大地缩小了开源模型与闭源模型之间的差距,甚至在多个关键领域实现了反超。

开源的、可自由使用和修改的模型,首次在推理、编程和Agent能力等多个维度与顶尖闭源模型站在同一水平线上。

开发者社区对模型的实际表现给予了积极评价。有开发者测试后表示,Kimi K2 Thinking在创意写作方面表现出色,能够“将粗略的灵感转化为清晰、动人且意图明确的叙述”。

同时,其在处理复杂编程任务时展现出的逻辑性和完整性也令人印象深刻。

Kimi K2 Thinking引发广泛讨论的,不仅是其技术实力,还有其独特的开源规则。

模型采用Modified MIT许可证,在保留标准MIT许可证绝大多数自由的基础上,添加了一项关键限制:“如果此模型被用于超过一亿月活用户,或者2000万美元月收入的商业产品中,需要注明商品底层使用了 Kimi K2模型”。

有美国的科技博主表示,Kimi K2为防止美国一些公司继续白剽这些开源模型并套牌说是自己的,出现了比较“奇怪”的modifiedMIT License,并感叹:“世界颠倒了,这可不好”。

这一条款为开源软件协议带来了新思路。对于绝大多数研究机构和企业应用,这只是一项轻量级的 attribution要求,不影响商业使用和衍生开发。

但当项目规模达到巨头级别时,仍需保留对原始开发者的尊重和认可。

这种规则设计,可视为中国AI企业首次在开源协议中引入如此影响力的条款,开创了开源规则“反向输出”的先例。

长期以来,中国科技企业更多是国际开源规则的接受者,而Kimi K2 Thinking的开源协议标志着这一格局正在改变。

以小博大,重塑AI竞争格局

DeepSeek-R1和Kimi K2 Thinking这类小成本模型的崛起,正在从根本上改变全球大模型行业的竞争规则和未来走向。

这些模型证明了,通过架构创新和工程优化,完全可以在控制成本的同时实现顶尖性能。

传统的“规模至上”的发展模式遭到挑战。过去,OpenAI及美国AI公司的核心护城河之一是强大的融资能力和大规模算力基础。

而今,一个依赖数十亿美元投入、指望高价API收回成本的商业模式,突然要面对一个性能接近、但API成本低10倍的竞争者。

猎豹移动CEO傅盛的评价就指出Kimi K2 Thinking的真正价值:“Kimi真正‘可怕’的地方不是性能的绝对超越,而是来自其极不对称的性价比。”

他强调,当一个开源模型以极低的训练成本达到了最先进模型90%的纸面能力和75%的实际能力时,整个战局有彻底改变的可能。

行业已告别“比参数、比算力”的粗放阶段,进入“比落地、比价值”的精耕时代。企业应用不再盲目追求模型的“大而全”,而是更关注“刚刚好”的智能——在成本、速度和隐私间找到平衡点。

更为深远的是,小成本模型可能成为中国在全球AI竞赛中的差异化路径。

没有人会再质疑——开源模型的“星星之火,可以燎原”。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。