当前位置: 首页 » 资讯 » 科技头条 » 正文

龙虾史上最大升级!但接了微信的千万别更

IP属地 中国·北京 量子位 时间:2026-03-24 10:05:04

henry 发自 凹非寺
量子位 | 公众号 QbitAI

各位养虾户早上好,龙虾又又又更新了!

时隔九天,虾父Peter带来了全新版本2026.3.22-beta.1



更新内容之丰富,堪称有史以来最大更新——

触控板和鼠标滚轮都得划半天才能看完。

先告诉你最关键的:龙虾能自己更新自己。



而说回更新,亮点概览如下:

插件升级:旧有的openclaw/extension-api已经被彻底移除,且不提供任何兼容垫片,统一走新版openclaw/plugin-sdk/*;安装插件优先ClawHub,找不到才去npm。模型更新:上新MiniMax M2.7、GPT-5.4-mini/nano,并增加智能体“思考/推理/快速”默认模式。交互优化:新增/btw快速问答,支持即时提问,无需工具调用,不影响未来会话;终端用户界面可关闭,外部渠道可显示BTW回复。安全方面:核心SSH沙盒上线,支持密钥/证书/known_hosts验证,OpenShell专注沙盒生命周期。

此外,龙虾还对安全、UI、安卓移动端、社交媒体集成做了优化,接下来,我们一起来看。

插件更新

为了提升插件分发安全性和开发规范,OpenClaw对插件安装机制和开发接口进行了大量优化:

除了将插件统一到ClawHub,以及移除旧的openclaw/extension-api以外。

现在捆绑插件必须通过注入的运行时(如 api.runtime.agent.runEmbeddedPiAgent)进行主机侧操作。

所有的直接导入必须指向精简后的openclaw/plugin-sdk/*子路径,禁止再从单体SDK根目录进行全量导入。

而且新版Matrix插件现在由官方matrix-js-sdk直接支持,这将带来更可靠的协议兼容性和加密性能。

安全更新

本次更新中,龙虾进一步强化了身份验证与执行审计。

新版本增加了原生SSH沙盒支持,这意味着你现在可以使用密钥、证书以及 known_hosts进行精细化的身份验证。

原有的共享远程执行与文件系统工具被正式移入核心库(Core Library),而OpenShell则更加专注于沙盒生命周期管理以及可选的 Mirror(镜像)模式。

在执行审批(exec approvals)流程中,系统现在能自动识别 time 等调度包装器。当执行 time … 命令时,审批逻辑会穿透路径,直接绑定到内部的可执行文件。

此外,在架构上,新版本引入了可插拔的后端设计。沙盒运行时正式引入了可插拔后端。无论是mirror(镜像)模式还是remote(远程)工作区模式,都能无缝切换。

在部署上,config set命令现在支持SecretRef(密钥引用)、JSON批量分配,并提供了带有结构化输出的—dry-run校验模式,让配置部署更安全、直观。

最后值得一提的是,新版龙虾将拒绝安装那些试图在官方克隆市场仓库之外(如外部Git、HTTP或绝对路径)的远程插件清单。

交互与效能

在新版龙虾中,当完整的提示词超出maxSkillsPromptChars限制时,系统不再暴力丢弃,而是优先采用紧凑目录回退(Compact Directory Fallback)策略,最大限度地保留已注册的技能条目。

而且当Agent触发自动压缩(Compaction)时,系统会通知用户,但为了保证交互体验,这些通知不会进入语音合成(TTS),也不会破坏助手回复的原有线程关系。

插件现在可以根据传入的modelId在assemble阶段动态调整上下文格式,确保不同规模的模型都能获得最适配的输入。

针对“仅在被提及(Mention)时响应”或被丢弃的房间消息,系统不再过早刷新焦点线程绑定。

这一改进确保了在那些交互频率较低的房间中,闲置的ACP(Agent 控制平面)和会话绑定能够按预期正常过期,有效节省了服务器资源。

为了应对网关重启可能带来的消息风暴,新版本引入了入站房间事件持久化去重功能。

即使在网关重启期间,系统也能精准识别已处理的消息,确保旧消息不会被当作新消息重放,同时保证未见事件在重启后能被准确补发。

模型更新

与以往的更新一样,本次更新对主流模型库进行了深度同步:

系统增加了对gpt-5.4-minigpt-5.4-nano的原生前向兼容支持。

OpenAI的默认设置模型已正式切换至gpt-5.4。更重要的是,聊天、图像、语音、嵌入等所有默认值现在都集中在一个共享模块中,未来的模型升级将实现“无感切换”。

MiniMax家族全员升级:默认模型由MiniMax M2.5进化至MiniMax M2.7。同时新增MiniMax M2.7-highspeed等高速版本,并将 /fast命令直接映射至各代的高速模式。

此外,捆绑的API与OAuth插件已合二为一,配置更简洁。

智谱同步:全面对齐GLM 4.5/4.6模型系列,涵盖了最新的多模态条目以及Token计费标准。

Grok 目录已同步至最新的 Pi 支持 ID,并优化了 /fast 模式的路由。Mistral 默认元数据也完成了价格同步,确保使用量统计更加透明准确。

GitHub Copilot动态兼容:现在支持动态模型ID的前向兼容。这意味着即便官方发布了新模型,你也可以在不更新代码的情况下直接调用,保持业务连续性。

每个智能体可单独设置“思考 / 快速 / 推理”模式;不允许的模型覆盖项会自动回退至默认最优选择。

UI与端侧优化

UI界面新增了“圆角(Roundness)”调节滑块,用户可以自由定义从“硬核直角”到“圆润曲线”的视觉风格。同时,聊天气泡增加了“展开至画布”功能,方便处理复杂任务。

此外,界面还重构了使用量概览样式,去除了冗余的占位卡片,信息展示更加响应式且直观。

移动端全面支持系统级深色模式。更重要的是,安卓节点现在具备了短信与通话记录搜索能力,并优化了语音合成(TTS)架构,将密钥保留在网关侧,提升了安全性的同时让播放更流畅。

值得一提的是,飞书现在支持查看/编辑消息、置顶消息、查看群成员等深度操作。

Telegram:支持自定义Bot API端点,自动生成论坛标签,错误回复可静默发送。

Matrix:新增 allowBots 和 allowPrivateNetwork 选项,支持机器人发言和内部服务器连接。

文档更新: 增加了社区版 钉钉 (DingTalk)、QQ 机器人 (QQbot) 和 企业微信 (Wecom) 插件的列表。更新了 Zalo 频道的配置指南。

重要修复

除功能上新以外,这次更新也修复了多个关键安全漏洞。

本次更新修复了可能导致Windows密码泄露和命令伪造的风险:

Windows文件路径加载前会拦截恶意输入,iOS配对码滥用问题以及macOS审批界面Unicode隐藏漏洞也已解决。

性能方面,冷启动时间从分钟级降至秒级:不再重复编译代码,插件采用懒加载,启动时会预热主模型,显著提升体验。

模型与搜索兼容性也加强,OpenAI与第三方大模型不再因字段或重复ID报错,OpenRouter可正常处理视觉模型,Exa搜索支持更多内容提取和更高结果上限。

社交渠道体验优化明显:Telegram回复稳定,不再因父消息删除消失,飞书机器人支持查看/编辑/置顶消息和群成员管理,WhatsApp重连后不会重复处理旧消息。

移动端和控制台也更顺畅:安卓端修复了内存泄漏和深色模式适配问题,多网关设置实现隔离,操作更安全可靠。

One more thing

对于这波更新,不少网友表示很满意。尤其是插件市场方面,这次更新让龙虾更像一个真正的平台。



ClawHub和沙盒功能,也是大家期待已久的亮点。



有网友觉得这次发布令人印象深刻,但其实真正的难点并不在于“更新量”,而在于OpenClaw正在变得更容易扩展、更容易安装、更容易连接工具



当然,也有不少用户更新后发现:“WhatsApp用不了了?”





对于国内用户,微信好像也出了问题。

网友林亦LYi更新后发现微信这边的ClawBot插件直接挂掉了,还被OpenClaw官方提示“WARNING: Dangerous Code Patterns”。



难道说,龙虾的微信官方插件,就活了一个周末?

[1]https://github.com/openclaw/openclaw/releases/tag/v2026.3.22

[2]https://x.com/openclaw

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。