OpenClaw 通过 OpenRouter 接入 Kimi、智谱 GLM-5、MiniMax

OpenClaw 通过 OpenRouter 接入 Kimi、智谱 GLM-5、MiniMax

OpenClaw 是 2026 年最火的开源 AI Agent 项目,被称为"个人 AI 的操作系统"。它能通过主流 IM 驱动大模型自动执行任务——发邮件、写代码、管文件、操作整台电脑,提升个人的生产力;对于国内用户,想官方购买 Anthropic、OpenAI 的 API 很困难,这种情况下,就可以使用 OpenRouter 来充值使用。

OpenClaw 最合适走的是 Claude 4.6,但是消耗很高,普通任务可以使用国内模型,Kimi K2.5、Z.ai(智谱)GLM-5 Turbo、MiniMax M2.7,这些模型在 OpenClaw 日常使用都是能够胜任的,性价比非常高。而且 OpenRouter 是中转的海外版的 Kimi K2.5、Z.ai(智谱)GLM-5 Turbo、MiniMax M2.7 模型,这些模型的海外版通常比国内版安全过滤更宽松,表现更好,价格和国内接口接近,可以不用同时充值多家并且同时接入这些模型。

本文教你用 OpenRouter 作为中间层,一个 API Key 搞定所有模型,用 支付宝/微信 直接充值,再通过自定义 Provider 配置让 OpenClaw 完美驱动这些国产模型。

OpenRouter 支持 300+ 模型


为什么选 OpenRouter?

OpenRouter 是一个 AI 模型 API 转发平台(大型信誉高),支持 300+ 模型,统一接口、统一计费。对国内用户来说,它有三个核心优势:

手续费方面,OpenRouter 收取 5% 充值手续费加每笔 $0.35 的交易费。也就是说充 $10 实际到账约 $9.15。考虑到省去了开虚拟卡的折腾成本,这个手续费完全可以接受。

三大国产模型对比

先看看这三家在 OpenRouter 上的定价和能力:

模型 输入价格 输出价格 上下文 图片 推理 核心优势
国产模型(via OpenRouter 自定义 Provider)
Kimi K2.5 Moonshot AI moonshotai/kimi-k2.5 $0.45/M $2.20/M 262K 支持 支持 多模态、视觉编码、超长上下文 SWE-bench ML 超 GPT-5.2
GLM-5 Turbo 智谱 Z.ai z-ai/glm-5-turbo $0.96/M $3.20/M 202K 不支持 支持 Agent 专项优化、工具调用零出错 744B MoE,最大输出 128K
MiniMax M2.5 MiniMax minimax/minimax-m2.5 $0.20/M 最低 $1.17/M 最低 197K 不支持 支持 性价比之王、Office 文件操作 SWE-Bench 80.2%
MiniMax M2.7 MiniMax minimax/minimax-m2.7 $0.30/M $1.20/M 205K 不支持 支持 多 Agent 协作、自我进化 SWE-Pro 56.2%,Terminal Bench 57.0%
参考对比(OpenRouter 内置驱动直接可用)
Claude Sonnet 4.6 Anthropic $3.00/M $15.00/M 1M 支持 支持 编码/Agent 综合最强的 Sonnet 级 输出价格是 M2.5 的 13 倍
Claude Opus 4.6 Anthropic $5.00/M $25.00/M 1M 支持 支持 Anthropic 旗舰,长任务最强 输出价格是 M2.5 的 21 倍

简单总结:日常 OpenClaw 用 MiniMax M2.5 最省钱,复杂推理和多模态任务用 Kimi K2.5,需要极长链路工具调用和高稳定性的场景用 GLM-5 Turbo。

OpenRouter 充值教程(支付宝/微信)

  1. 打开 openrouter.ai,用邮箱或 GitHub 账号注册登录。

  2. 点击右上角头像,选择 Credits,或直接访问 https://openrouter.ai/settings/credits

  3. 点击 Add Credits,在弹出的窗口中打开 "Use one-time payment methods" 开关——这一步很关键,不打开的话看不到支付宝和微信选项。

OpenRouter Use one-time payment methods

  1. 在支付方式中选择 Alipay(支付宝)或 WeChat Pay(微信支付)。填写账单地址(随便填一个国内地址即可),然后扫码支付。

  2. 支付完成后回到 Credits 页面确认余额到账。

建议一次至少充 $10,因为 OpenRouter 的免费模型额度政策要求账户累计充值达到 $10 才能解锁每日 1000 次免费调用,否则只有 50 次。

充值完成后,在 Keys 页面创建一个 API Key(sk-or- 开头),复制保存好。

OpenClaw 配置详解

这是本文的重点。OpenClaw 内置的 OpenRouter 驱动对 Claude 系列模型支持较好,可以直接使用。但对于 Kimi、GLM-5 Turbo、MiniMax 这些模型,内置驱动的兼容性不够理想——我实测下来发现工具调用、reasoning 参数传递等方面会出问题(v2026.3.13-1)。

解决办法是:在 OpenClaw 的 config.json 中手动添加一个 自定义 OpenAI 兼容 Provider,指向 OpenRouter 的 API 地址,然后逐个定义模型参数。这样 OpenClaw 会走标准的 OpenAI Completions API 协议与 OpenRouter 通信,兼容性好得多。

以下是完整的配置片段,添加到你的 OpenClaw config.json 中:

1. 添加自定义 Provider

models.providers 下新增一个 openroutercustom 节点:

"openroutercustom": {
  "baseUrl": "https://openrouter.ai/api/v1",
  "apiKey": "${OPENROUTER_API_KEY}",
  "api": "openai-completions",
  "models": [
    {
      "id": "moonshotai/kimi-k2.5",
      "name": "Kimi K2.5",
      "reasoning": true,
      "input": ["text", "image"],
      "cost": {
        "input": 0.45,
        "output": 2.2,
        "cacheRead": 0,
        "cacheWrite": 0
      },
      "contextWindow": 262144,
      "maxTokens": 8192
    },
    {
      "id": "minimax/minimax-m2.5",
      "name": "MiniMax M2.5",
      "reasoning": true,
      "input": ["text"],
      "cost": {
        "input": 0.2,
        "output": 1.17,
        "cacheRead": 0,
        "cacheWrite": 0
      },
      "contextWindow": 196608,
      "maxTokens": 8192
    },
    {
      "id": "minimax/minimax-m2.7",
      "name": "MiniMax M2.7",
      "reasoning": true,
      "input": ["text"],
      "cost": {
        "input": 0.3,
        "output": 1.2,
        "cacheRead": 0,
        "cacheWrite": 0
      },
      "contextWindow": 204800,
      "maxTokens": 8192
    },
    {
      "id": "z-ai/glm-5-turbo",
      "name": "GLM-5 Turbo",
      "reasoning": true,
      "input": ["text"],
      "cost": {
        "input": 0.96,
        "output": 3.2,
        "cacheRead": 0,
        "cacheWrite": 0
      },
      "contextWindow": 202752,
      "maxTokens": 8192
    }
  ]
}

2. 注册模型到 Agent 配置

agents.defaults.models 下添加对应条目:

"openroutercustom/moonshotai/kimi-k2.5": {
  "alias": "Kimi K2.5"
},
"openroutercustom/minimax/minimax-m2.5": {
  "alias": "MiniMax M2.5"
},
"openroutercustom/minimax/minimax-m2.7": {
  "alias": "MiniMax M2.7"
},
"openroutercustom/z-ai/glm-5-turbo": {
  "alias": "GLM-5 Turbo"
}

3. 设置默认模型(可选)

如果你想让 OpenClaw 默认使用某个国产模型,修改 agents.defaults.model.primary

"model": {
  "primary": "openroutercustom/moonshotai/kimi-k2.5"
}

4. 配置环境变量

在 OpenClaw 的 .env 文件或系统环境变量中设置你的 OpenRouter API Key:

export OPENROUTER_API_KEY="sk-or-v1-你的key"

配置要点说明

为什么不直接用 OpenClaw 内置的 OpenRouter 驱动? 我实测发现,内置的 openrouter/ 前缀驱动对 Claude 系列模型(如 openrouter/anthropic/claude-sonnet-4-5)支持良好,可以直接使用无需额外配置。但切换到 Kimi、GLM、MiniMax 时,工具调用的参数格式、reasoning token 的处理、以及部分 API 响应字段的解析都会出现兼容性问题,会出现无回复的问题。通过自定义 openroutercustom Provider 并指定 "api": "openai-completions",让 OpenClaw 走标准 OpenAI 兼容协议,这些问题就迎刃而解了。

模型 ID 必须使用 OpenRouter 上的完整路径。 比如 Kimi K2.5 在 OpenRouter 上的路径是 moonshotai/kimi-k2.5,GLM-5 Turbo 是 z-ai/glm-5-turbo,MiniMax M2.5 是 minimax/minimax-m2.5。这个 ID 会被直接作为 model 参数传给 OpenRouter API,写错了就找不到模型。

reasoning: true 的含义。 三家模型都支持 thinking/reasoning 模式。设为 true 后,OpenClaw 在需要复杂推理的任务中会启用模型的内部思考链,提高任务分解和工具调用的准确性。如果你想节省 token 消耗,也可以对日常简单任务设为 false

cost 字段的作用。 OpenClaw 用这个来估算每次对话的花费,帮你监控预算。数值单位是美元/百万 token,直接从 OpenRouter 的定价页面抄过来就行。

maxTokens 在 OpenClaw 配置里指的是模型单次响应最大能输出多少 token,不是上下文窗口大小。OpenClaw 官方默认给 8192 是有道理的。Agent 场景下,每轮对话其实不需要模型输出那么长,8192 token 对绝大多数工具调用和回复来说绰绰有余。

日常使用建议

配置完成后,你可以在 OpenClaw 的聊天界面随时切换模型。几个实用的搭配建议:

日常对话和轻量任务用 MiniMax M2.5,输入 $0.20/M、输出 $1.17/M 的价格几乎是白菜价,而且 SWE-Bench 80.2% 的得分说明代码能力也不弱。

需要看图理解、多模态分析的任务用 Kimi K2.5,它是三者中唯一支持图片输入的模型,而且 262K 的超长上下文窗口适合处理大型代码库和长文档。

需要稳定的长链路工具调用、定时任务、持续执行的 Agent 工作流用 GLM-5 Turbo,它从训练阶段就针对 OpenClaw 场景做了专项优化,工具调用零出错率是其核心卖点。

需要多 Agent 协作、自我修正的复杂工作流用 MiniMax M2.7,它的多 Agent 系统能力是专门训练过的。

当然,Claude Sonnet 仍然是综合能力最强的选择,只是贵。把国产模型作为日常主力、Claude 留给关键任务,是目前最优的性价比策略。


梯子推荐: 点击进入毒奶推荐的梯子