适合人群
- 正在使用 OpenClaw 搭建 AI 代理服务的开发者
- 想了解 OpenClaw 最新版本功能的运维工程师
- 准备部署 OpenClaw 到生产环境的技术决策者
- 对 AI Agent 平台感兴趣,想评估 OpenClaw 能力的开发者
准备清单
- 已安装 OpenClaw(或准备全新安装)
- 基本的命令行操作能力
- 至少配置了一个 AI 模型提供商(OpenAI、Anthropic、xAI 等)
更新概览
OpenClaw 2026.4.22 是一次重大版本更新,包含 153 个提交,涵盖 6 大新功能和大量修复优化。以下是面向中国开发者的核心更新解读。
🆕 六大核心新功能
1. 腾讯混元 Hy3 模型接入
OpenClaw 正式支持腾讯混元大模型(Hy3)。通过 bundled 的 Tencent Cloud provider 插件,可以一键接入 Hy3 模型。
配置方法:
# 运行 OpenClaw 配置向导,选择 Tencent 提供商
openclaw configure
# 或手动在 config.yaml 中添加
models:
providers:
tencent:
hy3-preview: true
支持的模型:
hy3-preview— 混元预览版,适合中文场景
价格体系: 插件内置了 Hy3 的分层定价元数据,自动计算 token 成本。
2. Grok 图像生成 + 语音工具
xAI 提供商全面升级,新增三大能力:
图像生成:
# 使用 Grok 生成图片
openclaw chat "帮我生成一张赛博朋克风格的城市夜景图"
# 支持模型:grok-imagine-image / grok-imagine-image-pro
# 支持 reference-image 编辑(基于参考图修改)
文字转语音(TTS):
# 6 种 xAI 实时语音可选
# 支持格式:MP3、WAV、PCM、G.711
# 适合做语音助手、播报系统
语音转文字(STT):
# grok-stt 音频转录
# xAI realtime 语音流转录(Voice Call 模式)
3. 本地 TUI 模式(无需 Gateway)
这是很多开发者期待的功能——现在可以直接在终端运行 OpenClaw 对话,不需要启动 Gateway 服务。
# 本地嵌入式 TUI 模式
openclaw tui
# 特点:
# - 不需要 Gateway 运行
# - 保持插件审批门控(安全)
# - 适合本地开发调试
适用场景:
- 本地快速调试 AI Agent
- 不需要 Telegram/Discord 等消息平台
- 开发和测试自定义工具
4. /models add 命令
现在可以在聊天中直接注册新模型,不需要重启 Gateway:
# 在聊天中添加模型
/models add openai gpt-4.1
# 立即可用,无需重启
# /models 命令现在提供更清晰的添加指引
5. 自动安装缺失插件
首次运行配置时,OpenClaw 会自动检测并安装缺失的提供商和通道插件,告别手动插件恢复:
# 以前:手动安装缺失的插件
# openclaw plugin install telegram
# 现在:配置向导自动安装
openclaw configure
# → 自动检测并安装缺失的 provider/channel 插件
6. 诊断导出(Diagnostics Export)
一键生成支持团队就绪的诊断报告:
# 生成诊断报告
openclaw doctor --export-diagnostics
# 报告包含:
# - 清理后的日志(脱敏)
# - 系统状态
# - 健康检查
# - 配置快照
# - 稳定性快照
用途: 提 bug 报告时直接附上诊断文件,帮助开发者快速定位问题。
🔧 重要的模型更新
Claude Opus 4.7 支持
OpenClaw 完整支持 Anthropic Claude Opus 4.7:
- 上下文窗口正确识别为 1M tokens(之前误报为 200K)
- Claude CLI 会话保持稳定(OAuth token 刷新不再断连)
- 支持 Amazon Bedrock Mantle 路由的 Claude Opus 4.7
GPT-5 提示覆盖层优化
GPT-5 的行为和心跳提示覆盖层已移至共享 provider runtime:
- 通过 OpenAI、OpenRouter、OpenCode、Codex 等多个提供商调用 GPT-5 时行为一致
- 可通过配置控制个性开关:
agents:
defaults:
promptOverlays:
gpt5:
personality: true # 全局友好风格开关
Kimi K2.6 支持
通过 Pi 0.68.1 更新,新增 Kimi K2.6 模型支持:
# 支持通过以下提供商访问 Kimi K2.6
/models add moonshot kimi-k2.6
/models add openrouter kimi-k2.6
修复: 解决了 Kimi 多轮工具调用在 2-3 轮后断裂的问题(工具调用 ID 格式兼容)。
思维模式默认提升
推理能力强的模型现在默认使用 medium 级别的思维模式(之前是 off/low),提供更好的推理质量。
🛠️ Codex 集成增强
OpenClaw 对 OpenAI Codex CLI 的集成做了大量改进:
新增 Guardian 审批模式:
# Codex app-server 审批模式
plugins:
entries:
codex:
config:
appServer:
mode: "guardian" # 默认为 unchained(本地自由执行)
新增 ChatGPT 设备码认证:
# 无头/无浏览器环境下登录 Codex
# 不再依赖 localhost 浏览器回调
openclaw configure # 选择 Codex → ChatGPT device-code auth
其他改进:
- Codex 会话跨 Gateway 重启保持稳定
- GPT-5 行为覆盖层应用于 Codex 运行
- 原生 Codex 工具审批与 OpenClaw 插件审批打通
📱 消息平台改进
Telegram
- Webhook 回调超时降至 5 秒,避免 Telegram 重发
- 409 冲突后自动重建 HTTP 传输连接
- 群组模型选择器需要
/models授权,防止未授权用户切换模型
- 支持原生回复引用(replyToMode)
- 支持按群组/私聊配置不同的系统提示
- 修复了 Cron 消息在重连时重复发送 7-12 次的问题
Discord
- 线程会话默认隔离,可配置继承父线程
/vc语音命令修复- 长状态输出保持 ephemeral,不泄露到公共频道
Slack
- 修复了 Slack Connect 流被拒绝后短消息消失的问题
- HTTP 模式 Webhook 路由修复
🔒 安全修复
重要安全更新
- 插件完整性校验: npm 插件更新时检测完整性偏移,失败时安全关闭
- 沙箱文件读取: pin 到已打开的文件描述符,防止 symlink 父目录替换攻击
- Control UI 认证: 未认证用户无法读取 bootstrap 元数据
- WebSocket 配对: 反向代理流量不再利用 loopback 共享密钥自动配对
- 环境变量隔离: 工作区
.env无法覆盖 Matrix、IRC 等连接器端点设置
Linux OOM 保护
# Gateway 子进程(supervisor、PTY、MCP stdio、browser)的 oom_score_adj 自动调高
# 确保内存压力下内核优先回收临时工作进程而非长期运行的 Gateway
# 可通过环境变量关闭:
OPENCLAW_CHILD_OOM_SCORE_ADJ=0 openclaw gateway
🚀 性能优化
| 优化项 | 提升幅度 |
|---|---|
| CLI doctor 运行时间 | 减少 74% |
| 插件加载时间 | 减少 82-90% |
| OpenRouter/LiteLLM 定价获取 | 异步加载,超时延至 30 秒 |
| 插件启动路径规范化缓存 | 消除逐插件归一化开销 |
📦 升级指南
升级命令
# 标准升级
openclaw update
# 查看更新详情
openclaw update --json
# 升级后运行诊断
openclaw doctor
# 首次安装
curl -fsSL https://openclaw.com/install.sh | bash
配置迁移注意
- 模型配置保护: 重新认证 OAuth 提供商不再覆盖其他提供商的模型配置
- config includes: 插件安装/更新现在正确写入 included 的 plugins.json5,不会扁平化
$include配置 - Gateway 重启保护: 配置损坏时自动回退到最后已知良好配置
推荐升级后操作
# 1. 升级
openclaw update
# 2. 运行诊断检查
openclaw doctor
# 3. 查看新模型
/models
# 4. 添加腾讯混元(如需要)
openclaw configure # 选择 Tencent
# 5. 试试本地 TUI 模式
openclaw tui
常见问题
Q: 如何从旧版本升级到 2026.4.22?
A: 直接运行 openclaw update。升级是增量的,配置和数据会自动保留。升级后建议运行 openclaw doctor 检查兼容性。想了解 AI 编程工具的完整配置?看 Claude Code 完整配置教程。
Q: 腾讯混元 Hy3 需要额外付费吗?
A: Hy3 是腾讯云的模型服务,需要腾讯云账号和 API 密钥。OpenClaw 只是提供接入层,具体计费由腾讯云决定。插件已内置分层定价元数据,OpenClaw 会自动跟踪 token 用量和成本。
Q: 本地 TUI 模式支持哪些功能?
A: TUI 模式支持所有对话和工具调用功能,包括 MCP 工具、自定义工具、插件系统。唯一限制是消息平台通道(Telegram、Discord 等)需要 Gateway 运行。关于 AI Agent 平台的更多配置,可以参考 AI Agent 与 MCP 实战教程。
Q: Codex 的 Guardian 模式和默认模式有什么区别?
A: 默认模式(unchanged)下,Codex 本地运行自由执行,适合开发环境。Guardian 模式下,所有 Codex 操作都需要经过 OpenClaw 的审批系统,适合生产环境。通过 plugins.entries.codex.config.appServer.mode 配置切换。
Q: 升级后插件不兼容怎么办?
A: 运行 openclaw doctor --non-interactive 检查问题。本版本大幅优化了插件加载路径,大部分兼容性问题已自动修复。如果仍有问题,尝试 openclaw plugin install <plugin-name> --force 重新安装。
Q: 这次更新对国内开发者最重要的功能是什么?
A: 三个最值得关注:(1) 腾讯混元 Hy3 直接接入,国内模型零延迟;(2) Kimi K2.6 支持,国内模型生态更完整;(3) 本地 TUI 模式,不需要 Gateway 就能本地调试。想用 AI 工具提升效率?看 ChatGPT Plus 完整指南。
参考来源
下一步建议
- 想学会用 Claude Code 开发 AI 应用?阅读 Claude Code 完整配置教程
- 想了解 AI Agent 如何协作?查看 AI Agent 团队协作指南
- 需要升级你的 AI 工具套餐?阅读 ChatGPT Plus 完整指南
