OpenClaw 2026.4.22 更新详解:腾讯混元 Hy3、Grok 图像语音、本地 TUI 模式
官方配置文档教程进阶12 分钟阅读
学习路径:AI Agent 与 MCP 实战

OpenClaw 2026.4.22 更新详解:腾讯混元 Hy3、Grok 图像语音、本地 TUI 模式

OpenClaw 2026.4.22 完整更新解读:腾讯混元 Hy3 接入、Grok 图像语音工具、本地 TUI 模式、/models add 命令等六大新功能,以及 Claude Opus 4.7 和 Kimi K2.6 支持。

适合人群

  • 正在使用 OpenClaw 搭建 AI 代理服务的开发者
  • 想了解 OpenClaw 最新版本功能的运维工程师
  • 准备部署 OpenClaw 到生产环境的技术决策者
  • 对 AI Agent 平台感兴趣,想评估 OpenClaw 能力的开发者

准备清单

  • 已安装 OpenClaw(或准备全新安装)
  • 基本的命令行操作能力
  • 至少配置了一个 AI 模型提供商(OpenAI、Anthropic、xAI 等)

更新概览

OpenClaw 2026.4.22 是一次重大版本更新,包含 153 个提交,涵盖 6 大新功能和大量修复优化。以下是面向中国开发者的核心更新解读。

🆕 六大核心新功能

1. 腾讯混元 Hy3 模型接入

OpenClaw 正式支持腾讯混元大模型(Hy3)。通过 bundled 的 Tencent Cloud provider 插件,可以一键接入 Hy3 模型。

配置方法:

# 运行 OpenClaw 配置向导,选择 Tencent 提供商
openclaw configure

# 或手动在 config.yaml 中添加
models:
  providers:
    tencent:
      hy3-preview: true

支持的模型:

  • hy3-preview — 混元预览版,适合中文场景

价格体系: 插件内置了 Hy3 的分层定价元数据,自动计算 token 成本。

2. Grok 图像生成 + 语音工具

xAI 提供商全面升级,新增三大能力:

图像生成:

# 使用 Grok 生成图片
openclaw chat "帮我生成一张赛博朋克风格的城市夜景图"
# 支持模型:grok-imagine-image / grok-imagine-image-pro
# 支持 reference-image 编辑(基于参考图修改)

文字转语音(TTS):

# 6 种 xAI 实时语音可选
# 支持格式:MP3、WAV、PCM、G.711
# 适合做语音助手、播报系统

语音转文字(STT):

# grok-stt 音频转录
# xAI realtime 语音流转录(Voice Call 模式)

3. 本地 TUI 模式(无需 Gateway)

这是很多开发者期待的功能——现在可以直接在终端运行 OpenClaw 对话,不需要启动 Gateway 服务。

# 本地嵌入式 TUI 模式
openclaw tui

# 特点:
# - 不需要 Gateway 运行
# - 保持插件审批门控(安全)
# - 适合本地开发调试

适用场景:

  • 本地快速调试 AI Agent
  • 不需要 Telegram/Discord 等消息平台
  • 开发和测试自定义工具

4. /models add 命令

现在可以在聊天中直接注册新模型,不需要重启 Gateway:

# 在聊天中添加模型
/models add openai gpt-4.1

# 立即可用,无需重启
# /models 命令现在提供更清晰的添加指引

5. 自动安装缺失插件

首次运行配置时,OpenClaw 会自动检测并安装缺失的提供商和通道插件,告别手动插件恢复:

# 以前:手动安装缺失的插件
# openclaw plugin install telegram

# 现在:配置向导自动安装
openclaw configure
# → 自动检测并安装缺失的 provider/channel 插件

6. 诊断导出(Diagnostics Export)

一键生成支持团队就绪的诊断报告:

# 生成诊断报告
openclaw doctor --export-diagnostics

# 报告包含:
# - 清理后的日志(脱敏)
# - 系统状态
# - 健康检查
# - 配置快照
# - 稳定性快照

用途: 提 bug 报告时直接附上诊断文件,帮助开发者快速定位问题。

🔧 重要的模型更新

Claude Opus 4.7 支持

OpenClaw 完整支持 Anthropic Claude Opus 4.7:

  • 上下文窗口正确识别为 1M tokens(之前误报为 200K)
  • Claude CLI 会话保持稳定(OAuth token 刷新不再断连)
  • 支持 Amazon Bedrock Mantle 路由的 Claude Opus 4.7

GPT-5 提示覆盖层优化

GPT-5 的行为和心跳提示覆盖层已移至共享 provider runtime:

  • 通过 OpenAI、OpenRouter、OpenCode、Codex 等多个提供商调用 GPT-5 时行为一致
  • 可通过配置控制个性开关:
agents:
  defaults:
    promptOverlays:
      gpt5:
        personality: true  # 全局友好风格开关

Kimi K2.6 支持

通过 Pi 0.68.1 更新,新增 Kimi K2.6 模型支持:

# 支持通过以下提供商访问 Kimi K2.6
/models add moonshot kimi-k2.6
/models add openrouter kimi-k2.6

修复: 解决了 Kimi 多轮工具调用在 2-3 轮后断裂的问题(工具调用 ID 格式兼容)。

思维模式默认提升

推理能力强的模型现在默认使用 medium 级别的思维模式(之前是 off/low),提供更好的推理质量。

🛠️ Codex 集成增强

OpenClaw 对 OpenAI Codex CLI 的集成做了大量改进:

新增 Guardian 审批模式:

# Codex app-server 审批模式
plugins:
  entries:
    codex:
      config:
        appServer:
          mode: "guardian"  # 默认为 unchained(本地自由执行)

新增 ChatGPT 设备码认证:

# 无头/无浏览器环境下登录 Codex
# 不再依赖 localhost 浏览器回调
openclaw configure  # 选择 Codex → ChatGPT device-code auth

其他改进:

  • Codex 会话跨 Gateway 重启保持稳定
  • GPT-5 行为覆盖层应用于 Codex 运行
  • 原生 Codex 工具审批与 OpenClaw 插件审批打通

📱 消息平台改进

Telegram

  • Webhook 回调超时降至 5 秒,避免 Telegram 重发
  • 409 冲突后自动重建 HTTP 传输连接
  • 群组模型选择器需要 /models 授权,防止未授权用户切换模型

WhatsApp

  • 支持原生回复引用(replyToMode)
  • 支持按群组/私聊配置不同的系统提示
  • 修复了 Cron 消息在重连时重复发送 7-12 次的问题

Discord

  • 线程会话默认隔离,可配置继承父线程
  • /vc 语音命令修复
  • 长状态输出保持 ephemeral,不泄露到公共频道

Slack

  • 修复了 Slack Connect 流被拒绝后短消息消失的问题
  • HTTP 模式 Webhook 路由修复

🔒 安全修复

重要安全更新

  • 插件完整性校验: npm 插件更新时检测完整性偏移,失败时安全关闭
  • 沙箱文件读取: pin 到已打开的文件描述符,防止 symlink 父目录替换攻击
  • Control UI 认证: 未认证用户无法读取 bootstrap 元数据
  • WebSocket 配对: 反向代理流量不再利用 loopback 共享密钥自动配对
  • 环境变量隔离: 工作区 .env 无法覆盖 Matrix、IRC 等连接器端点设置

Linux OOM 保护

# Gateway 子进程(supervisor、PTY、MCP stdio、browser)的 oom_score_adj 自动调高
# 确保内存压力下内核优先回收临时工作进程而非长期运行的 Gateway
# 可通过环境变量关闭:
OPENCLAW_CHILD_OOM_SCORE_ADJ=0 openclaw gateway

🚀 性能优化

优化项 提升幅度
CLI doctor 运行时间 减少 74%
插件加载时间 减少 82-90%
OpenRouter/LiteLLM 定价获取 异步加载,超时延至 30 秒
插件启动路径规范化缓存 消除逐插件归一化开销

📦 升级指南

升级命令

# 标准升级
openclaw update

# 查看更新详情
openclaw update --json

# 升级后运行诊断
openclaw doctor

# 首次安装
curl -fsSL https://openclaw.com/install.sh | bash

配置迁移注意

  1. 模型配置保护: 重新认证 OAuth 提供商不再覆盖其他提供商的模型配置
  2. config includes: 插件安装/更新现在正确写入 included 的 plugins.json5,不会扁平化 $include 配置
  3. Gateway 重启保护: 配置损坏时自动回退到最后已知良好配置

推荐升级后操作

# 1. 升级
openclaw update

# 2. 运行诊断检查
openclaw doctor

# 3. 查看新模型
/models

# 4. 添加腾讯混元(如需要)
openclaw configure  # 选择 Tencent

# 5. 试试本地 TUI 模式
openclaw tui

常见问题

Q: 如何从旧版本升级到 2026.4.22?

A: 直接运行 openclaw update。升级是增量的,配置和数据会自动保留。升级后建议运行 openclaw doctor 检查兼容性。想了解 AI 编程工具的完整配置?看 Claude Code 完整配置教程

Q: 腾讯混元 Hy3 需要额外付费吗?

A: Hy3 是腾讯云的模型服务,需要腾讯云账号和 API 密钥。OpenClaw 只是提供接入层,具体计费由腾讯云决定。插件已内置分层定价元数据,OpenClaw 会自动跟踪 token 用量和成本。

Q: 本地 TUI 模式支持哪些功能?

A: TUI 模式支持所有对话和工具调用功能,包括 MCP 工具、自定义工具、插件系统。唯一限制是消息平台通道(Telegram、Discord 等)需要 Gateway 运行。关于 AI Agent 平台的更多配置,可以参考 AI Agent 与 MCP 实战教程

Q: Codex 的 Guardian 模式和默认模式有什么区别?

A: 默认模式(unchanged)下,Codex 本地运行自由执行,适合开发环境。Guardian 模式下,所有 Codex 操作都需要经过 OpenClaw 的审批系统,适合生产环境。通过 plugins.entries.codex.config.appServer.mode 配置切换。

Q: 升级后插件不兼容怎么办?

A: 运行 openclaw doctor --non-interactive 检查问题。本版本大幅优化了插件加载路径,大部分兼容性问题已自动修复。如果仍有问题,尝试 openclaw plugin install <plugin-name> --force 重新安装。

Q: 这次更新对国内开发者最重要的功能是什么?

A: 三个最值得关注:(1) 腾讯混元 Hy3 直接接入,国内模型零延迟;(2) Kimi K2.6 支持,国内模型生态更完整;(3) 本地 TUI 模式,不需要 Gateway 就能本地调试。想用 AI 工具提升效率?看 ChatGPT Plus 完整指南

参考来源

下一步建议