OpenClaw 通过 OpenRouter 接入 Kimi、智谱 GLM-5、MiniMax

OpenClaw 是 2026 年最火的开源 AI Agent 项目,被称为"个人 AI 的操作系统"。它能通过主流 IM 驱动大模型自动执行任务——发邮件、写代码、管文件、操作整台电脑,提升个人的生产力;对于国内用户,想官方购买 Anthropic、OpenAI 的 API 很困难,这种情况下,就可以使用 OpenRouter 来充值使用。
OpenClaw 最合适走的是 Claude 4.6,但是消耗很高,普通任务可以使用国内模型,Kimi K2.5、Z.ai(智谱)GLM-5 Turbo、MiniMax M2.7,这些模型在 OpenClaw 日常使用都是能够胜任的,性价比非常高。而且 OpenRouter 是中转的海外版的 Kimi K2.5、Z.ai(智谱)GLM-5 Turbo、MiniMax M2.7 模型,这些模型的海外版通常比国内版安全过滤更宽松,表现更好,价格和国内接口接近,可以不用同时充值多家并且同时接入这些模型。
本文教你用 OpenRouter 作为中间层,一个 API Key 搞定所有模型,用 支付宝/微信 直接充值,再通过自定义 Provider 配置让 OpenClaw 完美驱动这些国产模型。

为什么选 OpenRouter?
OpenRouter 是一个 AI 模型 API 转发平台(大型信誉高),支持 300+ 模型,统一接口、统一计费。对国内用户来说,它有三个核心优势:
- 支付宝/微信直接充值,不需要外币信用卡或虚拟卡,最低 5 美元起充。
- 国内可直连访问,不存在 Anthropic、OpenAI 官方 API 那种 IP 封号风险。
- 一个 Key 调所有模型,不用分别去 Moonshot、智谱、MiniMax 各注册一遍。
手续费方面,OpenRouter 收取 5% 充值手续费加每笔 $0.35 的交易费。也就是说充 $10 实际到账约 $9.15。考虑到省去了开虚拟卡的折腾成本,这个手续费完全可以接受。
三大国产模型对比
先看看这三家在 OpenRouter 上的定价和能力:
| 模型 | 输入价格 | 输出价格 | 上下文 | 图片 | 推理 | 核心优势 |
|---|---|---|---|---|---|---|
| 国产模型(via OpenRouter 自定义 Provider) | ||||||
| Kimi K2.5 Moonshot AI moonshotai/kimi-k2.5 | $0.45/M | $2.20/M | 262K | 支持 | 支持 | 多模态、视觉编码、超长上下文 SWE-bench ML 超 GPT-5.2 |
| GLM-5 Turbo 智谱 Z.ai z-ai/glm-5-turbo | $0.96/M | $3.20/M | 202K | 不支持 | 支持 | Agent 专项优化、工具调用零出错 744B MoE,最大输出 128K |
| MiniMax M2.5 MiniMax minimax/minimax-m2.5 | $0.20/M 最低 | $1.17/M 最低 | 197K | 不支持 | 支持 | 性价比之王、Office 文件操作 SWE-Bench 80.2% |
| MiniMax M2.7 MiniMax minimax/minimax-m2.7 | $0.30/M | $1.20/M | 205K | 不支持 | 支持 | 多 Agent 协作、自我进化 SWE-Pro 56.2%,Terminal Bench 57.0% |
| 参考对比(OpenRouter 内置驱动直接可用) | ||||||
| Claude Sonnet 4.6 Anthropic | $3.00/M | $15.00/M | 1M | 支持 | 支持 | 编码/Agent 综合最强的 Sonnet 级 输出价格是 M2.5 的 13 倍 |
| Claude Opus 4.6 Anthropic | $5.00/M | $25.00/M | 1M | 支持 | 支持 | Anthropic 旗舰,长任务最强 输出价格是 M2.5 的 21 倍 |
简单总结:日常 OpenClaw 用 MiniMax M2.5 最省钱,复杂推理和多模态任务用 Kimi K2.5,需要极长链路工具调用和高稳定性的场景用 GLM-5 Turbo。
OpenRouter 充值教程(支付宝/微信)
打开 openrouter.ai,用邮箱或 GitHub 账号注册登录。
点击右上角头像,选择 Credits,或直接访问
https://openrouter.ai/settings/credits。点击 Add Credits,在弹出的窗口中打开 "Use one-time payment methods" 开关——这一步很关键,不打开的话看不到支付宝和微信选项。

在支付方式中选择 Alipay(支付宝)或 WeChat Pay(微信支付)。填写账单地址(随便填一个国内地址即可),然后扫码支付。
支付完成后回到 Credits 页面确认余额到账。
建议一次至少充 $10,因为 OpenRouter 的免费模型额度政策要求账户累计充值达到 $10 才能解锁每日 1000 次免费调用,否则只有 50 次。
充值完成后,在 Keys 页面创建一个 API Key(sk-or- 开头),复制保存好。
OpenClaw 配置详解
这是本文的重点。OpenClaw 内置的 OpenRouter 驱动对 Claude 系列模型支持较好,可以直接使用。但对于 Kimi、GLM-5 Turbo、MiniMax 这些模型,内置驱动的兼容性不够理想——我实测下来发现工具调用、reasoning 参数传递等方面会出问题(v2026.3.13-1)。
解决办法是:在 OpenClaw 的 config.json 中手动添加一个 自定义 OpenAI 兼容 Provider,指向 OpenRouter 的 API 地址,然后逐个定义模型参数。这样 OpenClaw 会走标准的 OpenAI Completions API 协议与 OpenRouter 通信,兼容性好得多。
以下是完整的配置片段,添加到你的 OpenClaw config.json 中:
1. 添加自定义 Provider
在 models.providers 下新增一个 openroutercustom 节点:
"openroutercustom": {
"baseUrl": "https://openrouter.ai/api/v1",
"apiKey": "${OPENROUTER_API_KEY}",
"api": "openai-completions",
"models": [
{
"id": "moonshotai/kimi-k2.5",
"name": "Kimi K2.5",
"reasoning": true,
"input": ["text", "image"],
"cost": {
"input": 0.45,
"output": 2.2,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 262144,
"maxTokens": 8192
},
{
"id": "minimax/minimax-m2.5",
"name": "MiniMax M2.5",
"reasoning": true,
"input": ["text"],
"cost": {
"input": 0.2,
"output": 1.17,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 196608,
"maxTokens": 8192
},
{
"id": "minimax/minimax-m2.7",
"name": "MiniMax M2.7",
"reasoning": true,
"input": ["text"],
"cost": {
"input": 0.3,
"output": 1.2,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 204800,
"maxTokens": 8192
},
{
"id": "z-ai/glm-5-turbo",
"name": "GLM-5 Turbo",
"reasoning": true,
"input": ["text"],
"cost": {
"input": 0.96,
"output": 3.2,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 202752,
"maxTokens": 8192
}
]
}
2. 注册模型到 Agent 配置
在 agents.defaults.models 下添加对应条目:
"openroutercustom/moonshotai/kimi-k2.5": {
"alias": "Kimi K2.5"
},
"openroutercustom/minimax/minimax-m2.5": {
"alias": "MiniMax M2.5"
},
"openroutercustom/minimax/minimax-m2.7": {
"alias": "MiniMax M2.7"
},
"openroutercustom/z-ai/glm-5-turbo": {
"alias": "GLM-5 Turbo"
}
3. 设置默认模型(可选)
如果你想让 OpenClaw 默认使用某个国产模型,修改 agents.defaults.model.primary:
"model": {
"primary": "openroutercustom/moonshotai/kimi-k2.5"
}
4. 配置环境变量
在 OpenClaw 的 .env 文件或系统环境变量中设置你的 OpenRouter API Key:
export OPENROUTER_API_KEY="sk-or-v1-你的key"
配置要点说明
为什么不直接用 OpenClaw 内置的 OpenRouter 驱动? 我实测发现,内置的 openrouter/ 前缀驱动对 Claude 系列模型(如 openrouter/anthropic/claude-sonnet-4-5)支持良好,可以直接使用无需额外配置。但切换到 Kimi、GLM、MiniMax 时,工具调用的参数格式、reasoning token 的处理、以及部分 API 响应字段的解析都会出现兼容性问题,会出现无回复的问题。通过自定义 openroutercustom Provider 并指定 "api": "openai-completions",让 OpenClaw 走标准 OpenAI 兼容协议,这些问题就迎刃而解了。
模型 ID 必须使用 OpenRouter 上的完整路径。 比如 Kimi K2.5 在 OpenRouter 上的路径是 moonshotai/kimi-k2.5,GLM-5 Turbo 是 z-ai/glm-5-turbo,MiniMax M2.5 是 minimax/minimax-m2.5。这个 ID 会被直接作为 model 参数传给 OpenRouter API,写错了就找不到模型。
reasoning: true 的含义。 三家模型都支持 thinking/reasoning 模式。设为 true 后,OpenClaw 在需要复杂推理的任务中会启用模型的内部思考链,提高任务分解和工具调用的准确性。如果你想节省 token 消耗,也可以对日常简单任务设为 false。
cost 字段的作用。 OpenClaw 用这个来估算每次对话的花费,帮你监控预算。数值单位是美元/百万 token,直接从 OpenRouter 的定价页面抄过来就行。
maxTokens 在 OpenClaw 配置里指的是模型单次响应最大能输出多少 token,不是上下文窗口大小。OpenClaw 官方默认给 8192 是有道理的。Agent 场景下,每轮对话其实不需要模型输出那么长,8192 token 对绝大多数工具调用和回复来说绰绰有余。
日常使用建议
配置完成后,你可以在 OpenClaw 的聊天界面随时切换模型。几个实用的搭配建议:
日常对话和轻量任务用 MiniMax M2.5,输入 $0.20/M、输出 $1.17/M 的价格几乎是白菜价,而且 SWE-Bench 80.2% 的得分说明代码能力也不弱。
需要看图理解、多模态分析的任务用 Kimi K2.5,它是三者中唯一支持图片输入的模型,而且 262K 的超长上下文窗口适合处理大型代码库和长文档。
需要稳定的长链路工具调用、定时任务、持续执行的 Agent 工作流用 GLM-5 Turbo,它从训练阶段就针对 OpenClaw 场景做了专项优化,工具调用零出错率是其核心卖点。
需要多 Agent 协作、自我修正的复杂工作流用 MiniMax M2.7,它的多 Agent 系统能力是专门训练过的。
当然,Claude Sonnet 仍然是综合能力最强的选择,只是贵。把国产模型作为日常主力、Claude 留给关键任务,是目前最优的性价比策略。