各位技术圈的小伙伴,学长来给大家同步个重磅消息!火遍全网的 OpenClaw 断更 9 天之后,直接甩出王炸 ——2026.3.22-beta.1 预览版正式上线,这次可不是小修小补,而是从插件架构到安全防护、从模型配置到交互体验的底层大修,整个生态直接迎来大升级,看完你绝对会想立刻上手试试!

先给大家看一波海外技术圈的实时反应,不少开发者都在社交平台感慨 9 天的等待太值了,还有人直呼这等待的时间像过了一个世纪,OpenClaw 的这次更新,直接点燃了全网技术爱好者的热情。

这次新版本是由 Peter Steinberger 重磅官宣的,不过大家要注意,本次 beta 版暂未附带新的 macOS 应用构建包,macOS 相关资源仍沿用稳定版 2026.3.22,appcast.xml 也未做调整【配图:Peter Steinberger 官宣新版本的社交平台截图及版本发布详情截图】。

学长先给大家划个核心重点,把这次更新的关键变化一次性说清,方便大家快速掌握:

  1. 插件系统彻底重构,旧 API 直接移除,新 SDK 上线,ClawHub 成官方首选分发渠道;
  2. 安全防护全面升级,一次性封堵十多个高危漏洞,Windows 端防护重点加固;
  3. 模型生态持续扩张,GPT-5.4 成为默认模型,还整合了多款主流大模型新版本;
  4. 多平台体验精细化打磨,Android 深色模式、多端交互功能均有优化;
  5. Agent 引擎升级,长对话压缩更智能,调度效率大幅提升。

插件系统大换骨,旧时代彻底翻篇

这应该是本次 3.22 版本最核心的变化,OpenClaw 直接对插件生态进行了 “换骨级” 改造。旧的 openclaw/extension-api 被彻底移除,没有兼容层也没有过渡期,直接一刀切,取而代之的是全新的 openclaw/plugin-sdk/* 模块化接口。

这就意味着,所有基于旧 API 开发的第三方插件,都需要进行迁移才能继续使用,就连官方的 nano-banana-pro 图像生成技能包装器也被移除,统一走新的路径。

同时插件安装的默认来源也变了,以前用 openclaw plugins install 命令会直接从 npm 拉包,现在 ClawHub 成为首选渠道,只有在 ClawHub 上找不到对应包时,才会回退到 npm。原因很简单,npm 是通用包管理器,内容质量参差不齐,而 ClawHub 是 OpenClaw 官方维护的插件市场,审核更严格、来源更可控,官方这次的 “生态净化运动”,能让插件使用更安全、更规范。

更值得一提的是,新版本新增了对 Claude、Codex、Cursor 三大主流开发工具插件包的发现与安装支持,能把外部插件的 Skills 自动映射到 OpenClaw 的技能体系中。简单说,以后你在 Cursor 里用得顺手的插件,也能直接搬到 OpenClaw 上用,OpenClaw 从封闭的工具框架,彻底变成了能吸纳外部生态的开放平台。

安全加固拉满,一次性堵上十多个 “要命的洞”

如果说插件重构是面向未来的布局,那安全修复就是解决当下的核心问题,这次 OpenClaw 一口气打了十多项安全补丁,重点封堵了几个高危漏洞,对公网部署的用户来说,这次更新可以说是 “必更项”。

学长给大家讲几个核心的安全修复点,都是日常使用中容易被攻击的关键环节:

  1. 拦截 Windows SMB 凭证泄露:彻底封堵了通过构造特殊 file:// 或 UNC 路径,在媒体加载环节触发 Windows 自动发起 SMB 认证握手,导致登录凭证泄露的漏洞,在核心媒体加载和沙盒附件路径中全面拦截这类远程路径;
  2. 加固执行环境沙盒:封锁了 MAVEN_OPTS 等多款 JVM 注入路径,堵住 GLIBC_TUNABLES 利用通道,拦截.NET 的 DOTNET_ADDITIONAL_DEPS 依赖劫持,主流构建工具链的环境变量注入攻击被一次性堵死;
  3. 破解 Unicode 零宽字符审批伪装:针对用不可见的韩文填充码位伪装执行命令审批提示的问题,在网关和 macOS 原生审批界面中全面转义这类字符,避免操作者误判真实命令;
  4. 防护语音通话 Webhook 预认证:将未认证调用者的 body 读取限制从 1MB/30 秒压到 64KB/5 秒,还限制了单 IP 的并发预认证请求数,避免服务器资源被恶意消耗。

模型生态再扩张,GPT-5.4 领衔上线

模型层面的升级同样实打实,OpenClaw 的 “模型路由器” 定位越来越清晰,这次接入了多款主流大模型的新版本,适配性和实用性都大幅提升。

首先,默认 OpenAI 模型正式切换到 GPT-5.4,还提前预置了 gpt-5.4-mini 和 gpt-5.4-nano 的前向兼容支持,后续新模型上线就能无缝接入;其次,MiniMax 默认模型从 M2.5 升级到 M2.7,还合并了 API 和 OAuth 两个插件入口,统一成单一的 minimax 插件,配置起来更简单;另外,Anthropic Vertex 正式接入,能通过 Google Vertex AI 直接调用 Claude 模型,还支持 GCP 认证和自动发现,对使用 Google Cloud 的团队来说太友好了。

除此之外,xAI 的 Grok 目录同步到最新版本,Z.AI 的 GLM 更新到 4.5/4.6 系列,Mistral 的定价元数据也修正了 “零成本” 的误导信息,各大主流模型的适配都更完善了。

多平台体验精细化,每个细节都超贴心

这类更新虽然不抢眼,但用起来的体验提升特别明显,这次 OpenClaw 对多平台的交互、功能都做了精细化打磨,覆盖 Android、Telegram、飞书、浏览器等多个端,学长挑几个重点跟大家说。

Android 端终于支持跟随系统的深色模式,从引导页到聊天页、语音页全场景覆盖,Control UI 还新增了 “圆角滑块”,能自定义界面圆角程度;Telegram 新增 DM 论坛话题自动重命名,系统会通过 LLM 为首条消息生成有意义的话题标签,还支持静默错误回复模式,机器人报错不会弹出通知音;飞书则新增了结构化交互审批卡片和快捷操作启动卡片,支持会话 ACP 和子智能体绑定,还能实时渲染推理流,思考过程会以 Markdown 引用块显示在卡片中。

浏览器集成方面,移除了旧的 Chrome 扩展中继路径,支持通过 userDataDir 直接连接 Brave、Edge 等 Chromium 内核浏览器;沙盒系统也完成架构升级,新增可插拔后端支持,首批上线 OpenShell 和 SSH 后端,不再绑定 Docker 单一方案,灵活性大幅提升。

Agent 引擎升级,长任务处理更从容

Agent 引擎的优化,解决了很多小伙伴日常使用中的痛点,尤其是长对话、长任务处理的问题,这次的升级可以说相当贴心。

长对话压缩机制做了多轮迭代,压缩时会自动延长运行截止时间,避免大型会话压缩到一半被超时终止,压缩后还会自动修复孤立的 tool_result 块,防止历史残余数据影响后续 Anthropic 请求,空会话压缩的死循环问题也彻底解决;默认 Agent 超时时间从 600 秒直接提升到 48 小时,跑长任务的 ACP 会话,再也不会被 10 分钟的限制卡脖子。

还有一个超实用的新功能:/btw 命令。在对话过程中,用这个命令可以随时插入 “旁白问题”,AI 会快速解答,而且不会影响当前会话的上下文,就像和同事开会时低声问一句题外话,问完就能继续原来的话题,日常使用效率直接拉满。

9 天沉默,换来的是一次走心的工程升级

其实从这次的更新节奏就能看出来,OpenClaw 团队已经过了单纯 “堆功能冲 Star” 的阶段,开始沉下心来做工程打磨了。

这次的所有升级,都是朝着 “可信赖的 AI 智能体平台” 这个目标全面发力,这些看似不显眼的底层优化,恰恰决定了这款工具能否被真正投入到生产环境中。毕竟对技术工具来说,“敢用” 往往比 “好用” 更重要,而 Peter Steinberger 和背后的开发团队,显然把这一点想透了。

9 天的等待,换来一次全维度的底层升级,这样的 “龙虾”,只会越来越强。相信这次 3.22 版本的上线,会让 OpenClaw 的生态变得更完善、更安全,学长也会持续关注后续的正式版和更多功能更新,有新消息会第一时间跟大家分享!

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐