Skip to content

第7章 模型配置:KIMI、MiniMax、GLM怎么选

🎯 本章目标:学完这章,你能根据需求选择最适合的模型,并正确配置

⏱️ 预计时间:20分钟

📋 前置要求:已完成第3章(基础安装)

  • 国内三家Coding Plan的能力对比
  • KIMI Coding Plan的详细配置步骤
  • MiniMax Coding Plan的详细配置步骤
  • GLM Coding Plan的详细配置步骤
  • 模型切换与回退配置
  • 成本监控方法

维度KIMI(国内)MiniMax(国内)GLM(国内)
订阅入口https://www.kimi.com/codehttps://platform.minimaxi.com/subscribe/coding-planhttps://bigmodel.cn/glm-coding
本书默认模型moonshot/kimi-k2.5minimax/MiniMax-M2.5zai/glm-5
月费档位(2026-02-18核验)49/99/199/699元29/49/119元49/149/469元
购买/管理路径Kimi Code 页面内订阅与管理Coding Plan 页面内订阅,控制台管理 KeyGLM Coding 页面订阅,usercenter 管理计划与 Key
本章结论长文档任务优先试用速度优先任务优先试用均衡任务优先试用

💡 说明:本章只使用御三家国内站口径;价格会随活动变动,购买前请以结算页实时显示为准。

先选你已经开通套餐的一家(最稳)

先跑通、再优化,是对小白最友好的路径。先用已开通的那一家完成第3章安装和首轮对话,别一上来同时改三件事。

如果三家都能用,再按任务类型切:

  • 长文档整理、长上下文问答:优先先试 moonshot/kimi-k2.5(官方口径下上下文窗口通常更大)
  • 响应速度优先、需要快速往返:先试 minimax/MiniMax-M2.5
  • 通用型任务、希望策略更均衡:先试 zai/glm-5

上述建议是实操经验路径,不是官方性能排名,也不是绝对结论;最终以你自己的任务实测为准。


  1. 访问 https://www.kimi.com/code
  2. 登录/注册KIMI账号
  3. 点击”订阅Coding Plan”
  4. 完成支付(支持支付宝/微信)
  5. 进入控制台,点击”API管理”
  6. 点击”创建API Key”
  7. 复制生成的Key(以sk-开头)

方式一:通过向导配置

Terminal window
openclaw onboard

选择KIMI,粘贴API Key。

方式二:手动配置

Terminal window
# 先完成 KIMI 鉴权
openclaw onboard --auth-choice kimi-code-api-key
# 设置默认模型(provider/model)
openclaw models set moonshot/kimi-k2.5

模型上下文长度特点
kimi-k2.5256K稳定主力,综合能力强
kimi-k2-0905-preview256K新版本预览,适合尝鲜
kimi-k2-thinking256K推理更强,速度略慢

推荐:日常使用选kimi-k2.5,复杂推理再切kimi-k2-thinking


  1. 访问 https://platform.minimaxi.com/subscribe/coding-plan
  2. 注册/登录账号
  3. 完成实名认证(按页面提示)
  4. 订阅Coding Plan
  5. 进入”API管理”页面
  6. 创建API Key并复制

通过向导配置

Terminal window
openclaw onboard

选择MiniMax,粘贴API Key。

手动配置

Terminal window
# 先完成 MiniMax 鉴权(优先 Coding Plan/OAuth)
openclaw onboard --auth-choice minimax-portal
# 设置默认模型(provider/model)
openclaw models set minimax/MiniMax-M2.5

模型特点
MiniMax-M2.5主力模型,质量和稳定性更均衡
MiniMax-M2.5-Lightning速度更快,适合高并发场景
MiniMax-M2.1兼容旧配置时可用

推荐:默认选minimax/MiniMax-M2.5,追求速度再切 Lightning。


  1. 访问 https://bigmodel.cn/glm-coding
  2. 注册/登录智谱AI账号
  3. 进入控制台
  4. 点击”API Keys”菜单
  5. 创建新的API Key
  6. 复制保存

通过向导配置

Terminal window
openclaw onboard

选择GLM,粘贴API Key。

手动配置

Terminal window
# 先完成 Z.AI 鉴权(GLM)
openclaw onboard --auth-choice zai-api-key
# 设置默认模型(provider/model)
openclaw models set zai/glm-5

模型特点
glm-5新一代主力模型,代码与推理能力更强
glm-4.7次新版本,稳定可用
glm-4.7-flash更快更省,适合轻任务

推荐:默认选zai/glm-5,轻任务可切zai/glm-4.7-flash


OpenClaw支持配置主模型(primary)和备用模型(fallbacks):

{
"models": {
"primary": {
"provider": "kimi",
"model": "kimi-k2.5",
"apiKey": "sk-xxx"
},
"fallbacks": [
{
"provider": "minimax",
"model": "MiniMax-M2.5",
"apiKey": "xxx"
},
{
"provider": "glm",
"model": "glm-5",
"apiKey": "xxx"
}
]
}
}

工作原理

  1. 优先使用primary模型
  2. 如果primary失败(如额度用完、服务异常),自动切换到fallbacks[0]
  3. 如果fallbacks[0]也失败,切换到fallbacks[1]
  4. 以此类推

在对话中临时切换模型:

@agent 使用MiniMax回答这个问题

或在配置中设置规则:

{
"routing": {
"byTask": {
"coding": "kimi",
"quickReply": "minimax",
"longDoc": "kimi"
}
}
}

Terminal window
# 设置月度预算(美元)
openclaw config set budget.monthly 50
# 设置单日预算
openclaw config set budget.daily 5

达到预算上限后,OpenClaw会:

  • 发送警告通知
  • 暂停非必要调用
  • 保留紧急功能

Terminal window
# 查看本月使用情况
openclaw gateway usage-cost
# 输出示例:
# Provider Requests Tokens Cost(USD)
# kimi 1,234 5.2M $12.34
# minimax 567 2.1M $5.67
# Total 7.3M $18.01

  1. 选择合适的模型

    • 简单任务用轻量模型(zai/glm-4.7-flash)
    • 复杂任务才用强模型(moonshot/kimi-k2.5)
  2. 限制上下文长度

    {
    "models": {
    "primary": {
    "maxTokens": 4000
    }
    }
    }
  3. 设置调用频率限制

    {
    "rateLimit": {
    "perMinute": 30,
    "perHour": 500
    }
    }

模型配置的核心要点:

  1. 长文档先试KIMI —— 长上下文任务更顺手
  2. 响应速度优先试MiniMax —— 对话往返更轻快
  3. 通用任务优先试GLM —— 作为均衡选项
  4. 配置fallbacks —— 避免单点故障
  5. 设置预算上限 —— 防止意外账单

下一步:第8章,深入理解配置文件的结构。


  1. 如果你还没申请Coding Plan,选择一家申请
  2. 配置好你的主模型
  3. 设置一个月度预算上限
  4. 测试不同模型的响应速度和质量
  5. (可选)配置一个fallback模型