当前位置: 首页 » 资讯 » 科技头条 » 正文

Cursor套壳Kimi败露,最强“自研”模型被锤!创始人:忘记署名了

IP属地 中国·北京 编辑:李娜 量子位 时间:2026-03-21 16:14:03

Jay 发自 凹非寺

量子位 | 公众号 QbitAI

套壳开源模型还装自研,忍不了一点,直接开喷了。

这次风波的主角,依然是国产开源模型,和硅谷独角兽玩家。

不过……双方的站位好像发生了变化。

月之暗面预训练负责人杜羽伦,点名Cursor CEO

Cursor既没有遵守我们的许可协议,也没有向我们支付任何费用。

Michael Truell,为什么?

月之暗面联创周昕宇同样下场,一记重锤锤死Cursor。

我好像不记得Cursor有来找我们申请授权。

吃瓜一线,马斯克也站边了:

对,明明就是Kimi K2.5!

今天,Cursor也终于是给出了正式回应,承认「自研」模型确实是套的Kimi的壳

至于为什么没署名嘛……

没详细解释,大概意思就是不小心忘记了,实属疏忽,下次不会再犯。

Cursor兴奋发布,然后被当场抓包

要搞清楚这是怎么一回事,得先把时间线拨回到Cursor新模型发布那天。

那天的关键词是「倒反天罡」。

Cursor搬出自研模型Composer 2,不仅成本低得吓人,性能还把Claude Opus 4.6按着锤。

不过后来有眼尖的人指出,benchmark是Cursor自家的,属于是又当裁判又当运动员了。

而且有网友实际体验下来,表示差Opus还是有点距离。

本来以为,这只是又一次过度宣传,等用户实际体验后,热度就会慢慢下去。

没想到,体验着体验着,竟然体验出这么个惊天大瓜。

有网友在Cursor里调API,结果误打误撞在日志中发现:

模型那一栏,写的是Kimi K2.5

全网炸锅。

Cursor官方发现后,火速阻断了这一渠道。

但为时已晚。

消息刚出来的时候,网友还不太相信。Cursor这么大的公司,怎么也得提前打声招呼吧?

毕竟Kimi虽然是开源模型,但修改版MIT新增了一条:

如果你用这个模型做商业产品,并且规模够大,必须标明Kimi K2.5.

触发条件是满足其一:月活超1亿,或月收入超2000万美元。

而Cursor,估值500亿美元,ARR 20亿,每月进账约1.67亿,远远超过门槛。

论:Kimi如何冲刺500亿美金估值?

建议:下场做个AI IDE。

调侃归调侃,但也许……Cursor和月之暗面私下签了什么特殊定制协议呢?

毕竟体量这么大,这也是一次重磅级的发布,应该不至于白嫖吧???

直到月之暗面联创周昕宇下场,一记重锤锤死Cursor。

我好像不记得Cursor有来找我们申请授权。

杜羽伦,得知消息后,当即去测了Composer 2的API,随即在技术层面给出更多证据。

结论:这模型的tokenizer,和Kimi一模一样。

几乎可以实锤,Cursor「暴打」Claude的最强自研模型,就是在Kimi基础上做了一道后训练。

仅此而已。

对此,杜羽伦表示「难以置信」。

Cursor既没有遵守我们的许可协议,也没有向我们支付任何费用。

随即直接点名Cursor CEO:

Michael Truell,为什么??

舆论彻底被引爆。

大概就是在嘲讽Cursor死不承认,结果现在被人家抓了现行。

印象最深刻是这条评论,攻击力极强:

「如果你是套壳AI应用,就好好当你的模型二道贩子,别装得自己很懂模型一样。」

如今再回头看Cursor当时更新「自研」模型表态,确实很感慨啊:

这些性能提升,来自我们首次进行的持续预训练,为后续扩展强化学习提供了坚实基础。

实在有些尴尬。

Cursor此次最大的卖点是强化学习,他们确实搞出了一种自我总结的RL方法,能解决上下文过长的问题。

但是,预训练???

哈??

谁曾想呢,帮助Cursor翻身把歌唱,把Claude压着打的,其实是Kimi。

反转来了?

以上是昨天夜间发生的故事,等今早一觉睡醒,想不到还有新瓜可吃。

X上,周昕宇和杜羽伦的相关推文、回复全没了。

Kimi的一条官方声明成了唯一的回应:

恭喜Cursor团队发布Composer 2!

我们很高兴看到Kimi-k2.5成为其基础模型。看到我们的模型通过 Cursor 的持续预训练和高算力强化学习训练被有效整合,这正是我们所支持的开放模型生态。

补充说明:Cursor是通过FireworksAI提供的托管强化学习与推理平台来访问Kimi-k2.5的,这是一个经过授权的商业合作关系。

不用过多翻译,读到这儿的你肯定已经和我会心一笑了吧doge。

优雅,实在太优雅了。

随后Cursor创始人Aman Sanger好像也终于想起了开源协议这件事,上来就对Kimi一顿猛夸:

我们做了很多评估,Kimi k2.5是最强的!

至于为什么发布博客里没署名?

Aman Sanger没有详细解释,只以滑跪结尾,说是一个失误,并表达了歉意。

网友们当然不会买账。

这这这,Cursor在发布新模型后一顿技术解读,又是预训练,又是RL的,换谁也不相信是单纯忘记署名了啊。

哦,忘记说了,其实模型用的是Kimi,但我们自己做了很多技术优化噢。

截至发帖,Cursor依然未在Composer 2的博客上补充任何Kimi相关说明。

One More Thing

其实,Cursor也不是头一次干类似的事儿了,只是之前没像这次被苦主用铁锤锤死。

Composer刚出来,就有网友对Cursor「自研」的真实性表示过怀疑。

主要博客实在写得太含糊了,只说用了RL、在MoE架构上做了优化,对模型底子完全只字不提。

Composer的透明度缺失简直离谱。他们提到用了强化学习,但没交代模型的其他训练过程。

到底是自己预训练的,还是拿现成模型改的?

在他们公开更多细节、或有人能独立复现结果之前,我对这些说法都持保留态度。

后面确实也被网友扒出来蛛丝马迹,该模型的CoT里总是会莫名突然冒出中文;此外,模型表现和智谱GLM非常相似。

面对这些质疑,Cursor对此从没承认,也从来没否认。

不过,智谱的开源协议采用的是MIT,也就是说使用其模型的产品,即便商用,也不对署名做强制要求。

其实在业内,套壳这件事对小公司来说,也很正常。

从零训一个coding模型,成本太高了,风险也大,为了市场还必须持续抢SOTA,算力和时间成本都不划算。

在此背景下,好用又开源的国产模型,无疑成了资源受限条件下的最佳选择。

不止初创公司,就连日本闹得沸沸扬扬的「最强自研模型」Rakuten AI 3.0,也没能撑住。

发布不到12小时,就有,开源社区开发者直接在Hugging Face仓库的config.json文件里看到:

“model_type”: “deepseek_v3”

参数规模、MoE结构……几乎和DeepSeek-V3一模一样啊。

更火上浇油的是:初始上传时,乐天疑似故意没上传DeepSeek原有许可文件和NOTICE,只留自家Apache 2.0。

被社区锤爆后才紧急补上一个NOTICE文件,承认来源。

怎么说呢,「拿来主义」确实很不好……

但也算是某种对中国模型实力的侧面印证吧。

标签: 模型 开源 产品 体验 下场 官方 网友 协议 周昕宇 用户 杜羽伦 小心 国产 实际 暗面 结果 日本 公司 规模 决策 商业 研究者 知识库 枢纽 核心 硅谷 现行 从业者 投资者 成本 许可

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。