第7章 模型配置:KIMI、MiniMax、GLM怎么选
🎯 本章目标:学完这章,你能根据需求选择最适合的模型,并正确配置
⏱️ 预计时间:20分钟
📋 前置要求:已完成第3章(基础安装)
本章你将学会什么
Section titled “本章你将学会什么”- 国内三家Coding Plan的能力对比
- KIMI Coding Plan的详细配置步骤
- MiniMax Coding Plan的详细配置步骤
- GLM Coding Plan的详细配置步骤
- 模型切换与回退配置
- 成本监控方法
7.1 三家对比(国内站口径)
Section titled “7.1 三家对比(国内站口径)”7.1.1 快速对比表
Section titled “7.1.1 快速对比表”| 维度 | KIMI(国内) | MiniMax(国内) | GLM(国内) |
|---|---|---|---|
| 订阅入口 | https://www.kimi.com/code | https://platform.minimaxi.com/subscribe/coding-plan | https://bigmodel.cn/glm-coding |
| 本书默认模型 | moonshot/kimi-k2.5 | minimax/MiniMax-M2.5 | zai/glm-5 |
| 月费档位(2026-02-18核验) | 49/99/199/699元 | 29/49/119元 | 49/149/469元 |
| 购买/管理路径 | Kimi Code 页面内订阅与管理 | Coding Plan 页面内订阅,控制台管理 Key | GLM Coding 页面订阅,usercenter 管理计划与 Key |
| 本章结论 | 长文档任务优先试用 | 速度优先任务优先试用 | 均衡任务优先试用 |
💡 说明:本章只使用御三家国内站口径;价格会随活动变动,购买前请以结算页实时显示为准。
7.1.2 我的建议
Section titled “7.1.2 我的建议”先选你已经开通套餐的一家(最稳)
先跑通、再优化,是对小白最友好的路径。先用已开通的那一家完成第3章安装和首轮对话,别一上来同时改三件事。
如果三家都能用,再按任务类型切:
- 长文档整理、长上下文问答:优先先试
moonshot/kimi-k2.5(官方口径下上下文窗口通常更大) - 响应速度优先、需要快速往返:先试
minimax/MiniMax-M2.5 - 通用型任务、希望策略更均衡:先试
zai/glm-5
上述建议是实操经验路径,不是官方性能排名,也不是绝对结论;最终以你自己的任务实测为准。
7.2 KIMI Coding Plan配置
Section titled “7.2 KIMI Coding Plan配置”7.2.1 获取API Key
Section titled “7.2.1 获取API Key”- 访问 https://www.kimi.com/code
- 登录/注册KIMI账号
- 点击”订阅Coding Plan”
- 完成支付(支持支付宝/微信)
- 进入控制台,点击”API管理”
- 点击”创建API Key”
- 复制生成的Key(以
sk-开头)
7.2.2 在OpenClaw配置KIMI
Section titled “7.2.2 在OpenClaw配置KIMI”方式一:通过向导配置
openclaw onboard选择KIMI,粘贴API Key。
方式二:手动配置
# 先完成 KIMI 鉴权openclaw onboard --auth-choice kimi-code-api-key
# 设置默认模型(provider/model)openclaw models set moonshot/kimi-k2.57.2.3 KIMI可用模型
Section titled “7.2.3 KIMI可用模型”| 模型 | 上下文长度 | 特点 |
|---|---|---|
| kimi-k2.5 | 256K | 稳定主力,综合能力强 |
| kimi-k2-0905-preview | 256K | 新版本预览,适合尝鲜 |
| kimi-k2-thinking | 256K | 推理更强,速度略慢 |
推荐:日常使用选kimi-k2.5,复杂推理再切kimi-k2-thinking。
7.3 MiniMax Coding Plan配置
Section titled “7.3 MiniMax Coding Plan配置”7.3.1 获取API Key
Section titled “7.3.1 获取API Key”- 访问 https://platform.minimaxi.com/subscribe/coding-plan
- 注册/登录账号
- 完成实名认证(按页面提示)
- 订阅Coding Plan
- 进入”API管理”页面
- 创建API Key并复制
7.3.2 在OpenClaw配置MiniMax
Section titled “7.3.2 在OpenClaw配置MiniMax”通过向导配置:
openclaw onboard选择MiniMax,粘贴API Key。
手动配置:
# 先完成 MiniMax 鉴权(优先 Coding Plan/OAuth)openclaw onboard --auth-choice minimax-portal
# 设置默认模型(provider/model)openclaw models set minimax/MiniMax-M2.57.3.3 MiniMax可用模型
Section titled “7.3.3 MiniMax可用模型”| 模型 | 特点 |
|---|---|
| MiniMax-M2.5 | 主力模型,质量和稳定性更均衡 |
| MiniMax-M2.5-Lightning | 速度更快,适合高并发场景 |
| MiniMax-M2.1 | 兼容旧配置时可用 |
推荐:默认选minimax/MiniMax-M2.5,追求速度再切 Lightning。
7.4 GLM Coding Plan配置
Section titled “7.4 GLM Coding Plan配置”7.4.1 获取API Key
Section titled “7.4.1 获取API Key”- 访问 https://bigmodel.cn/glm-coding
- 注册/登录智谱AI账号
- 进入控制台
- 点击”API Keys”菜单
- 创建新的API Key
- 复制保存
7.4.2 在OpenClaw配置GLM
Section titled “7.4.2 在OpenClaw配置GLM”通过向导配置:
openclaw onboard选择GLM,粘贴API Key。
手动配置:
# 先完成 Z.AI 鉴权(GLM)openclaw onboard --auth-choice zai-api-key
# 设置默认模型(provider/model)openclaw models set zai/glm-57.4.3 GLM可用模型
Section titled “7.4.3 GLM可用模型”| 模型 | 特点 |
|---|---|
| glm-5 | 新一代主力模型,代码与推理能力更强 |
| glm-4.7 | 次新版本,稳定可用 |
| glm-4.7-flash | 更快更省,适合轻任务 |
推荐:默认选zai/glm-5,轻任务可切zai/glm-4.7-flash。
7.5 模型切换与回退
Section titled “7.5 模型切换与回退”7.5.1 配置主模型和备用模型
Section titled “7.5.1 配置主模型和备用模型”OpenClaw支持配置主模型(primary)和备用模型(fallbacks):
{ "models": { "primary": { "provider": "kimi", "model": "kimi-k2.5", "apiKey": "sk-xxx" }, "fallbacks": [ { "provider": "minimax", "model": "MiniMax-M2.5", "apiKey": "xxx" }, { "provider": "glm", "model": "glm-5", "apiKey": "xxx" } ] }}工作原理:
- 优先使用primary模型
- 如果primary失败(如额度用完、服务异常),自动切换到fallbacks[0]
- 如果fallbacks[0]也失败,切换到fallbacks[1]
- 以此类推
7.5.2 动态切换模型
Section titled “7.5.2 动态切换模型”在对话中临时切换模型:
@agent 使用MiniMax回答这个问题或在配置中设置规则:
{ "routing": { "byTask": { "coding": "kimi", "quickReply": "minimax", "longDoc": "kimi" } }}7.6 成本监控
Section titled “7.6 成本监控”7.6.1 设置预算上限
Section titled “7.6.1 设置预算上限”# 设置月度预算(美元)openclaw config set budget.monthly 50
# 设置单日预算openclaw config set budget.daily 5达到预算上限后,OpenClaw会:
- 发送警告通知
- 暂停非必要调用
- 保留紧急功能
7.6.2 查看使用统计
Section titled “7.6.2 查看使用统计”# 查看本月使用情况openclaw gateway usage-cost
# 输出示例:# Provider Requests Tokens Cost(USD)# kimi 1,234 5.2M $12.34# minimax 567 2.1M $5.67# Total 7.3M $18.017.6.3 成本控制技巧
Section titled “7.6.3 成本控制技巧”-
选择合适的模型
- 简单任务用轻量模型(zai/glm-4.7-flash)
- 复杂任务才用强模型(moonshot/kimi-k2.5)
-
限制上下文长度
{"models": {"primary": {"maxTokens": 4000}}} -
设置调用频率限制
{"rateLimit": {"perMinute": 30,"perHour": 500}}
模型配置的核心要点:
- 长文档先试KIMI —— 长上下文任务更顺手
- 响应速度优先试MiniMax —— 对话往返更轻快
- 通用任务优先试GLM —— 作为均衡选项
- 配置fallbacks —— 避免单点故障
- 设置预算上限 —— 防止意外账单
下一步:第8章,深入理解配置文件的结构。
- 如果你还没申请Coding Plan,选择一家申请
- 配置好你的主模型
- 设置一个月度预算上限
- 测试不同模型的响应速度和质量
- (可选)配置一个fallback模型