Open Claw Moonshot AI 模型配置指南

2026-04-01 20:47 Open Claw Moonshot AI 模型配置指南已关闭评论

我在 Open Claw 中配置 Moonshot AIKimi)模型的实战经验

概述

最近我在项目中尝试集成 Moonshot AI 的 Kimi 系列模型,发现它提供了与 OpenAI 兼容的 API 端点,这让集成过程变得相当顺畅。不过,在实际操作中,我遇到了一个需要特别注意的地方。

注意: Moonshot 和 Kimi Coding 是两个独立的提供商。它们的 API Key 不能通用,端点地址不同,就连模型引用的格式也不一样。这一点在开始配置前一定要搞清楚,免得走弯路。


快速开始

方式一:Moonshot API(推荐)

1. 配置并设置默认模型

根据我的经验,最快捷的方式就是通过命令行来操作。整个过程非常直观:

# 配置 Moonshot API Key
openclaw onboard --auth-choice moonshot-api-key

# 设置默认模型
openclaw models set moonshot/kimi-k2.5

2. 使用 Kimi Coding(可选)

如果你主要做代码相关的工作,也可以选择配置 Kimi Coding:

openclaw onboard --auth-choice kimi-code-api-key

可用模型

Moonshot API 模型 ID

我在配置时发现,Moonshot 提供了几个不同的模型变体,可以根据需求选择:

模型 ID 说明
kimi-k2.5 Kimi K2.5 标准版
kimi-k2-0905-preview K2 0905 预览版
kimi-k2-turbo-preview K2 Turbo 预览版
kimi-k2-thinking K2 思考模式
kimi-k2-thinking-turbo K2 思考模式 Turbo

Kimi Coding 模型 ID

而 Kimi Coding 这边,目前我看到的模型选择相对少一些:

模型 ID 说明
kimi-coding/k2p5 Kimi K2.5 代码版

模型引用格式

重要区别:

这里是我踩过的一个小坑,两个提供商的模型引用格式完全不同:

提供商 模型引用格式 示例
Moonshot moonshot/<modelId> moonshot/kimi-k2.5
Kimi Coding kimi-coding/<modelId> kimi-coding/k2p5

记住这个格式区别,能帮你省去很多调试时间。


配置示例

Moonshot API 配置

对于更复杂的项目,我通常会使用 YAML 配置文件。下面是我常用的一个配置模板,你可以参考:

env:
  MOONSHOT_API_KEY: "sk-..."

agents:
  defaults:
    model:
      primary: "moonshot/kimi-k2.5"
    models:
      # Moonshot Kimi K2 别名配置
      "moonshot/kimi-k2.5": { alias: "Kimi K2.5" }
      "moonshot/kimi-k2-0905-preview": { alias: "Kimi K2" }
      "moonshot/kimi-k2-turbo-preview": { alias: "Kimi K2 Turbo" }
      "moonshot/kimi-k2-thinking": { alias: "Kimi K2 Thinking" }
      "moonshot/kimi-k2-thinking-turbo": { alias: "Kimi K2 Thinking Turbo" }

models:
  mode: "merge"
  providers:
    moonshot:
      baseUrl: "https://api.moonshot.ai/v1"
      apiKey: "${MOONSHOT_API_KEY}"
      api: "openai-completions"
      models:
        - id: "kimi-k2.5"
          name: "Kimi K2.5"
          reasoning: false
          input: ["text"]
          cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          contextWindow: 256000
          maxTokens: 8192

        - id: "kimi-k2-0905-preview"
          name: "Kimi K2 0905 Preview"
          reasoning: false
          input: ["text"]
          cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          contextWindow: 256000
          maxTokens: 8192

        - id: "kimi-k2-turbo-preview"
          name: "Kimi K2 Turbo"
          reasoning: false
          input: ["text"]
          cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          contextWindow: 256000
          maxTokens: 8192

        - id: "kimi-k2-thinking-turbo"
          name: "Kimi K2 Thinking Turbo"
          reasoning: true
          input: ["text"]
          cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          contextWindow: 256000
          maxTokens: 8192

Kimi Coding 配置

Kimi Coding 的配置就简洁多了:

env:
  KIMI_API_KEY: "sk-..."

agents:
  defaults:
    model:
      primary: "kimi-coding/k2p5"
    models:
      "kimi-coding/k2p5": { alias: "Kimi K2.5" }

端点配置

根据你的地理位置,可能需要选择不同的端点。我整理了一下:

端点类型 URL
国际端点 https://api.moonshot.ai/v1
中国端点 https://api.moonshot.cn/v1

如果你在国内,连接国际端点可能比较慢,这时候可以覆盖配置:

models:
  providers:
    moonshot:
      baseUrl: "https://api.moonshot.cn/v1"

常用命令

在实际使用中,我经常用到下面这些命令,分享给你:

操作 命令
配置 Moonshot API Key openclaw onboard --auth-choice moonshot-api-key
配置 Kimi Coding Key openclaw onboard --auth-choice kimi-code-api-key
设置 Kimi K2.5 模型 openclaw models set moonshot/kimi-k2.5
设置 Kimi Turbo openclaw models set moonshot/kimi-k2-turbo-preview
设置 Kimi Thinking openclaw models set moonshot/kimi-k2-thinking
查看状态 openclaw models status

模型特性

Thinking 模式

我特别喜欢 Kimi 的 Thinking 模式,它让模型的推理过程更加透明。目前支持 reasoning 的模型有:
- kimi-k2-thinking
- kimi-k2-thinking-turbo

这些模型在配置中需要启用 reasoning: true,这样才能发挥扩展思考模式的优势。

上下文窗口

所有 Kimi K2 系列模型都支持 256,000 tokens 的上下文窗口,这对于处理长文档非常有用。

最大输出 Tokens

所有模型的最大输出都是 8,192 tokens,在规划生成内容时需要注意这个限制。


注意事项

根据我的经验,有几点特别需要注意:

  1. 模型引用格式:Moonshot 使用 moonshot/<modelId>,Kimi Coding 使用 kimi-coding/<modelId>,千万别搞混了。

  2. 覆盖配置:如果你需要自定义定价或者调整上下文元数据,可以在 models.providers 中进行配置。

  3. 上下文限制:如果未来 Moonshot 发布了不同的上下文限制,记得要相应调整 contextWindow 配置。

  4. 端点选择

    • 国际用户:https://api.moonshot.ai/v1
    • 中国用户:https://api.moonshot.cn/v1

故障排除

问题:API Key 无效

症状: 返回 401 错误

解决:

openclaw onboard --auth-choice moonshot-api-key

问题:模型找不到

症状: 提示模型不存在

解决: 确认模型引用格式正确,这是我经常犯的错误:

# 正确
openclaw models set moonshot/kimi-k2.5

# 错误(缺少 provider)
openclaw models set kimi-k2.5

问题:端点连接失败

症状: 网络超时或连接拒绝

解决: 尝试切换端点,特别是如果你在国内:

models:
  providers:
    moonshot:
      baseUrl: "https://api.moonshot.cn/v1"  # 切换国内端点

相关文档

如果你想深入了解其他模型的配置,可以参考这些文档:


最后更新:2026-03-08

当前文章价值9.81元,扫一扫支付后添加微信提供帮助!(如不能解决您的问题,可以申请退款)

你可能感兴趣的文章

来源:每日教程每日一例,深入学习实用技术教程,关注公众号TeachCourse
转载请注明出处: https://teachcourse.cn/3877.html ,谢谢支持!

资源分享

如何选购合适的万网云服务器ECS? 如何选购合适的万网云服务器EC
一张图看懂日志收集模块 一张图看懂日志收集模块
Android代码绘制虚线、圆角、渐变和阴影效果图 Android代码绘制虚线、圆角、渐
飞腾网更换名字Logo和favicon的通知 飞腾网更换名字Logo和favicon的

评论已关闭!