当前位置: 首页 » 资讯 » 科技头条 » 正文

奥特曼亲封GPT-5.5“自闭天才”!16人团队连夜退订Claude

IP属地 中国·北京 编辑:陈阳 新智元 时间:2026-05-11 10:11:11

刚刚,奥特曼亲手给GPT-5.5起了一个让全网炸锅的外号——「自闭天才」。

他不禁感叹,真不敢相信,我们居然造出这样的AI!

GPT-5.5上线半个月,奥特曼在社交平台上,多次毫不掩饰地表达了自己的兴奋。

用奥特曼自己的话说,GPT-5.5的「原始智能」已经拉开了断层级差距:

跑分碾压,token省到飞起,性能暴力美学拉满。

AI圈大佬们纷纷用脚投票GPT-5.5,甚至AI教授Derya Unutmaz直言,它完全可以被叫做GPT-6!

同在今天,一张图表在全网疯转,GPT-5.5加持的Codex下载在5月直线飞升,8610万远超Claude Code。

仅上一周单周,下载量破9000万,是Claude Code的12倍。

与此同时,开发者的反馈也在疯狂验证这一点。

许多人公开表示,GPT-5.5在实际编码任务中,性能已经超越Claude Opus 4.7,尤其是token消耗。

同样的任务,GPT-5.5用掉的token比Claude少了近40%。

不得不说,「自闭天才」这个比喻,精准得让人有点心疼。

16人团队退订Claude,月省3.2万美元

一家初创公司Bold Metrics的创始人Morgan Linton发了一条帖子,语气平静但内容炸裂:

正式告别Anthropic!

对于我这个16人的小规模工程团队来说,Codex + Cursor的组合已经完全取代了原有的方案。

理由简单粗暴,Claude Code太贵了!

相比之下,在GPT-5.5的加持下,Codex最近的表现令人惊艳,而且Token利用率极高,非常节省成本。

在实际工作中,Bold Metrics依然频繁使用Cursor进行代码审查。

最关键的是,团队使用Cursor至今从未触发表格限制,其内置的Composer 2功能足以应对绝大多数开发场景。

针对Claude Token消耗,Linton算了一笔账——

每个工程师每月要烧掉2000美元以上,16个人就是超3.2万美元/月的开销。

而换成Codex + Cursor之后,GPT-5.5的Token效率让成本断崖式下降,性能还不打折。

更扎心的是他的预测,会有越来越多的工程负责人发布类似的决定。

不得不说,这条帖子像一颗深水炸弹,直接炸到了Anthropic的命门上——产品好是好,但Token消耗简直是抢钱

而Codex这边呢?数据已经给出了答案。

一周下载9000万,Codex成为神话

TickerTrends数据显示,截至5月3日,Codex的下载量达到了令人瞠目的8610万次,周环比暴涨1397%。

而到了5月8日,这个数字进一步攀升至单周9000万。

与此同时,Anthropic的Claude Code同期下载量为720万次,周环比反而下跌了38%。

一个在狂飙,一个在失血。此消彼长的速度,快得让人窒息。

这波增长的引爆点很明确——

4月30日Codex发布v0.128.0版本,引入了持久化的/goal工作流,支持跨会话的多步任务规划。

再加上GPT-5.5带来的百万Token上下文,以及40% Token效率提升,开发者用脚投票的速度比任何评测都诚实。

奥特曼本人也曾在内部信中,用了一个词来形容Codex的增长:疯狂!

微软副总Omar Shahine忍不住称赞道,「Codex在创建Swift iOS应用表现非凡」。

他仅用了一个提示,Codex直出应用,解决了95%的工作,要比Claude Code好用多了。

紧接着,OpenAI开发者体验负责人Romain Huet表示——

Codex能设计界面,用GPT-5.5写Swift代码,连Xcode都不用开就能直接在模拟器里跑App,甚至还能用 「电脑操控」到处点点点来做测试!

开发者Dimitris Papailiopoulos同样表示,自己明显更信任Codex了。

如今,有了Codex,奥特曼表示自己的时间也更自由了。

奥特曼深夜「真心话」,评论区失控

同在今天,奥尔曼开始在线征集意见,「你最希望OpenAI下一代模型改进什么」?

一时间,评论区的建议涌爆了。

一条高赞评论,把OpenAI钉在了墙上

OpenAI前研究员Will Depue的回复成了全场焦点。

GPT-5.5缩小了和Claude的差距,但在「人味儿」上输得一塌糊涂。

他举了一个例子,当你想学天体物理时,GPT-5.5会立刻甩出一堆冷冰冰的缩写和公式,把你搞得一头雾水;

而Claude就像一个博学又优雅的导师,能带着你钻进各种知识的兔子洞,既有趣,又不乱套。

不仅如此,他喊话,OpenAI的数据调优太机械了,赶紧向Anthropic学习,把模型的「性格」和「解释能力」往回拽30%。

全网最强的模型,居然在「像个人」这件事上,被人嫌弃了。

还有人希望,ChatGPT可以提升下遵循指令和写作的能力。

另外,前端是网友们提及最多的,希望能看到显著改进的地方。

标签: 奥特曼 数据 性能 任务 团队 开发者 评论 导师 差距 全网 拉满 精准 语气 比喻 帖子 负责人 效率 模型 速度 断崖 编码 直言 网疯 直线 初创 理由 表格 命门 数字 电脑 意见 焦点

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。