今天大清早突然发布的 Claude Opus 4.7,还没上线多久,网上就已经骂声一片。
最扎眼的槽点,是 token 先「通货膨胀」了。新版引入了全新的 tokenizer(分词器),同样一段文字,拆出的 token 数量比以前多出 1.0 到 1.35 倍。不少用户反映,还没聊几句,额度就见了底。

后续,Claude Code 之父 Boris Cherny 也表示将提高额度来抵消这部分的影响。

但 token 膨胀还算小事。更让人哭笑不得的,是 Opus 4.7 那张嘴。它动不动「我就在这里,不躲,不藏,不绕,不逃,稳稳地接住你、翻译成人话、我太懂你这种感觉了,不是,而是」,一股浓烈的 ChatGPT 味扑面而来。

平心而论,Opus 4.6 也有这个毛病,Sonnet 4.6 反而症状更轻。只是到了 4.7,这股腔调明显更浓,不懂好好说话的问题愈发突出。

APPSO 之前也报道过,过于油腻的说话风格与 RLHF(人类反馈强化学习)有关。训练时,人类评审者倾向于给听起来顺耳、令人愉快的回答打高分,模型就学会了这套讨好人的腔调。这是一个关于AI 在取悦谁的问题。
但 Opus 4.7 让人关注的地方不止于此。token 越用越多,说明它在「想」得更多。只是那些浮夸的安慰腔调又让人怀疑,它想出来的东西,究竟算不算真的在思考,还是仅仅学会了一套让你感觉它在思考的表演方式。
这个问题,远比局限于 Opus 4.7 好不好用的命题要更深刻。而答案的线索,最先出现在让人最想不到的论坛:4Chan。

来自 @acnekot,上同
改变 AI 轨迹的算术题
简单科普一下,4chan 是互联网上最臭名昭著的地方之一,里面充斥着脏话、阴谋论和各种难以描述的内容。但偏偏就是这里,藏着一个改变了整个 AI 行业走向的发现。
把时间拨回 2020 年夏天,距离 ChatGPT 震撼世界还有两年多。
当时的 4chan 游戏板块依旧乌烟瘴气,满屏都是离奇的成人幻想和最原始的荷尔蒙冲动。不过那时,这群人集体迷上了一款叫《AI Dungeon》的文字 RPG 游戏。
这款游戏的底层,接入了当时刚刚问世的 OpenAI GPT-3 模型。

在虚拟世界里,玩家只要敲下「拿起剑」或者「让巨魔滚开」,算法就会顺着往下编故事。毫不意外,到了 4chan 老哥手里,这个游戏光速沦为满足各种赛博性幻想的试验田。
令人没想到的是,这群特立独行的玩家,做了一件在当时看来极为反直觉的事:
他们开始逼着游戏里的 NPC 做数学题。

懂行的人都知道,初出茅庐的 GPT-3 是个纯纯的「文科生」,连最基础的加减乘除都能算得一塌糊涂。
但诡异的事情发生了。
有个玩家偶然发现,如果不去死要答案,而是勒令 NPC 保持人设、把解题步骤一步步写出来,这个大模型不仅算对了,甚至连语气都贴合了虚拟角色的设定。
那位玩家在论坛里激动地破口大骂:「它**不仅解出了数学题,还是用完全符合那个角色性格的语气解出来的!」意识到了这个发现的含金量后,玩家们也开始将这些带有详细步骤的截图发到了 Twitter 上。






京公网安备 11011402013531号