我在 Open Claw 中配置 Moonshot AI(Kimi)模型的实战经验
概述
最近我在项目中尝试集成 Moonshot AI 的 Kimi 系列模型,发现它提供了与 OpenAI 兼容的 API 端点,这让集成过程变得相当顺畅。不过,在实际操作中,我遇到了一个需要特别注意的地方。
注意: Moonshot 和 Kimi Coding 是两个独立的提供商。它们的 API Key 不能通用,端点地址不同,就连模型引用的格式也不一样。这一点在开始配置前一定要搞清楚,免得走弯路。
快速开始
方式一:Moonshot API(推荐)
1. 配置并设置默认模型
根据我的经验,最快捷的方式就是通过命令行来操作。整个过程非常直观:
# 配置 Moonshot API Key
openclaw onboard --auth-choice moonshot-api-key
# 设置默认模型
openclaw models set moonshot/kimi-k2.5
2. 使用 Kimi Coding(可选)
如果你主要做代码相关的工作,也可以选择配置 Kimi Coding:
openclaw onboard --auth-choice kimi-code-api-key
可用模型
Moonshot API 模型 ID
我在配置时发现,Moonshot 提供了几个不同的模型变体,可以根据需求选择:
| 模型 ID | 说明 |
|---|---|
kimi-k2.5 |
Kimi K2.5 标准版 |
kimi-k2-0905-preview |
K2 0905 预览版 |
kimi-k2-turbo-preview |
K2 Turbo 预览版 |
kimi-k2-thinking |
K2 思考模式 |
kimi-k2-thinking-turbo |
K2 思考模式 Turbo |
Kimi Coding 模型 ID
而 Kimi Coding 这边,目前我看到的模型选择相对少一些:
| 模型 ID | 说明 |
|---|---|
kimi-coding/k2p5 |
Kimi K2.5 代码版 |
模型引用格式
重要区别:
这里是我踩过的一个小坑,两个提供商的模型引用格式完全不同:
| 提供商 | 模型引用格式 | 示例 |
|---|---|---|
| Moonshot | moonshot/<modelId> |
moonshot/kimi-k2.5 |
| Kimi Coding | kimi-coding/<modelId> |
kimi-coding/k2p5 |
记住这个格式区别,能帮你省去很多调试时间。
配置示例
Moonshot API 配置
对于更复杂的项目,我通常会使用 YAML 配置文件。下面是我常用的一个配置模板,你可以参考:
env:
MOONSHOT_API_KEY: "sk-..."
agents:
defaults:
model:
primary: "moonshot/kimi-k2.5"
models:
# Moonshot Kimi K2 别名配置
"moonshot/kimi-k2.5": { alias: "Kimi K2.5" }
"moonshot/kimi-k2-0905-preview": { alias: "Kimi K2" }
"moonshot/kimi-k2-turbo-preview": { alias: "Kimi K2 Turbo" }
"moonshot/kimi-k2-thinking": { alias: "Kimi K2 Thinking" }
"moonshot/kimi-k2-thinking-turbo": { alias: "Kimi K2 Thinking Turbo" }
models:
mode: "merge"
providers:
moonshot:
baseUrl: "https://api.moonshot.ai/v1"
apiKey: "${MOONSHOT_API_KEY}"
api: "openai-completions"
models:
- id: "kimi-k2.5"
name: "Kimi K2.5"
reasoning: false
input: ["text"]
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
contextWindow: 256000
maxTokens: 8192
- id: "kimi-k2-0905-preview"
name: "Kimi K2 0905 Preview"
reasoning: false
input: ["text"]
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
contextWindow: 256000
maxTokens: 8192
- id: "kimi-k2-turbo-preview"
name: "Kimi K2 Turbo"
reasoning: false
input: ["text"]
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
contextWindow: 256000
maxTokens: 8192
- id: "kimi-k2-thinking-turbo"
name: "Kimi K2 Thinking Turbo"
reasoning: true
input: ["text"]
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
contextWindow: 256000
maxTokens: 8192
Kimi Coding 配置
Kimi Coding 的配置就简洁多了:
env:
KIMI_API_KEY: "sk-..."
agents:
defaults:
model:
primary: "kimi-coding/k2p5"
models:
"kimi-coding/k2p5": { alias: "Kimi K2.5" }
端点配置
根据你的地理位置,可能需要选择不同的端点。我整理了一下:
| 端点类型 | URL |
|---|---|
| 国际端点 | https://api.moonshot.ai/v1 |
| 中国端点 | https://api.moonshot.cn/v1 |
如果你在国内,连接国际端点可能比较慢,这时候可以覆盖配置:
models:
providers:
moonshot:
baseUrl: "https://api.moonshot.cn/v1"
常用命令
在实际使用中,我经常用到下面这些命令,分享给你:
| 操作 | 命令 |
|---|---|
| 配置 Moonshot API Key | openclaw onboard --auth-choice moonshot-api-key |
| 配置 Kimi Coding Key | openclaw onboard --auth-choice kimi-code-api-key |
| 设置 Kimi K2.5 模型 | openclaw models set moonshot/kimi-k2.5 |
| 设置 Kimi Turbo | openclaw models set moonshot/kimi-k2-turbo-preview |
| 设置 Kimi Thinking | openclaw models set moonshot/kimi-k2-thinking |
| 查看状态 | openclaw models status |
模型特性
Thinking 模式
我特别喜欢 Kimi 的 Thinking 模式,它让模型的推理过程更加透明。目前支持 reasoning 的模型有:
- kimi-k2-thinking
- kimi-k2-thinking-turbo
这些模型在配置中需要启用 reasoning: true,这样才能发挥扩展思考模式的优势。
上下文窗口
所有 Kimi K2 系列模型都支持 256,000 tokens 的上下文窗口,这对于处理长文档非常有用。
最大输出 Tokens
所有模型的最大输出都是 8,192 tokens,在规划生成内容时需要注意这个限制。
注意事项
根据我的经验,有几点特别需要注意:
-
模型引用格式:Moonshot 使用
moonshot/<modelId>,Kimi Coding 使用kimi-coding/<modelId>,千万别搞混了。 -
覆盖配置:如果你需要自定义定价或者调整上下文元数据,可以在
models.providers中进行配置。 -
上下文限制:如果未来 Moonshot 发布了不同的上下文限制,记得要相应调整
contextWindow配置。 -
端点选择:
- 国际用户:
https://api.moonshot.ai/v1 - 中国用户:
https://api.moonshot.cn/v1
- 国际用户:
故障排除
问题:API Key 无效
症状: 返回 401 错误
解决:
openclaw onboard --auth-choice moonshot-api-key
问题:模型找不到
症状: 提示模型不存在
解决: 确认模型引用格式正确,这是我经常犯的错误:
# 正确
openclaw models set moonshot/kimi-k2.5
# 错误(缺少 provider)
openclaw models set kimi-k2.5
问题:端点连接失败
症状: 网络超时或连接拒绝
解决: 尝试切换端点,特别是如果你在国内:
models:
providers:
moonshot:
baseUrl: "https://api.moonshot.cn/v1" # 切换国内端点
相关文档
如果你想深入了解其他模型的配置,可以参考这些文档:
最后更新:2026-03-08
当前文章价值9.81元,扫一扫支付后添加微信提供帮助!(如不能解决您的问题,可以申请退款)

评论已关闭!