Open Claw GLM 模型配置指南

2026-04-01 21:48 Open Claw GLM 模型配置指南已关闭评论

我在 OpenClaw 中配置 GLM(智谱 AI)模型的实战经验

概述

今天我想和大家分享一下,我是如何在 OpenClaw 中成功配置智谱 AI(Zhipu AI)的 GLM 大语言模型系列的。GLM 作为国内领先的模型,在中文理解和代码生成方面表现非常出色,而 OpenClaw 对它的支持也相当完善,提供了 API Key 和 OAuth 两种认证方式,用起来很灵活。

我总结的几个亮点:
- ✅ 支持 GLM-Edge、GLM-Pro 等多个模型版本,可以根据任务需求选择
- ✅ API Key 和 OAuth 两种认证方式,总有一种适合你
- ✅ 与 OpenAI API 兼容,迁移成本低
- ✅ 中文理解和生成能力强,对国内开发者非常友好
- ✅ 特别适合代码生成和日常对话场景


快速开始:两种认证方式任你选

方式一:使用 API Key 认证(我的首选)

这种方式最直接,也最常用。下面是我一步步走下来的流程。

步骤 1:获取你的 GLM API Key

  1. 首先,访问 智谱 AI 开放平台
  2. 登录或注册你的账号。
  3. 进入 控制台API Key 管理 页面。
  4. 点击 创建 API Key 按钮。
  5. 最重要的一步:复制并妥善保存生成的 API Key(它的格式通常是 xxxxx.xxxxx)。
┌─────────────────────────────────────────────────────────┐
│  API Key 管理                                             │
├─────────────────────────────────────────────────────────┤
│  API Key                                                │
│  ┌─────────────────────────────────────────────────┐   │
│  │ abc123def456...xyz                             │ [复制] │
│  └─────────────────────────────────────────────────┘   │
│                                                         │
│  [+ 创建新 API Key]                                      │
└─────────────────────────────────────────────────────────┘

步骤 2:通过 CLI 命令快速设置

拿到 Key 之后,回到你的终端,用 OpenClaw 的命令行工具来设置。我个人喜欢用交互式命令,比较直观。

# 交互式添加认证,跟着提示走就行
openclaw auth add

# 或者,如果你喜欢一步到位,可以直接用这条命令
openclaw onboard --auth-choice apiKey --token-provider glm --token "your-api-key"

步骤 3:验证一下配置是否成功

设置完别急着用,先验证一下,这是我养成的好习惯。

# 查看模型状态,确认 GLM 已经就绪
openclaw models status

# 如果想看更结构化的信息,可以用 JSON 格式输出
openclaw models status --json

方式二:使用 OAuth 认证

如果你不想管理 API Key,或者你的团队在使用 OAuth 流程,这种方式会更方便。

步骤 1:启用相关插件(如果需要的话)

有些情况下可能需要先启用插件。

openclaw plugins enable glm-auth

步骤 2:进行 OAuth 登录

运行登录命令,它会引导你完成设备码授权流程。

openclaw models auth login --provider glm --set-default

这个命令会帮你做几件事:
- 启动 OAuth device-code 流程,你只需要在浏览器里授权一下。
- 自动在 models.json 配置文件中写入 provider 信息。
- 创建一个 glm 别名,方便后续使用。


配置文件设置:让配置更持久

除了命令行,直接修改配置文件也是一种很“极客”的方式,适合需要固定配置的场景。

方法一:使用环境变量

我喜欢把敏感信息放在环境变量里,这样更安全。在你的配置文件中(比如 config.yaml)可以这样设置:

env:
  GLM_API_KEY: "your-api-key"

方法二:直接编辑配置文件

直接编辑 ~/.openclaw/config.yaml~/.openclaw/openclaw.json 文件,进行更精细的控制。

# 这是一个完整的配置示例,你可以参考
providers:
  glm:
    api_key: ${GLM_API_KEY} # 这里引用了上面的环境变量
    base_url: https://open.bigmodel.cn/api/paas/v4

agents:
  default:
    auth:
      - provider: glm
        api_key: ${GLM_API_KEY}
    models:
      - id: glm/glm-edge

配置代码片段(Config Snippet)

这里还有一个简洁的配置片段,你可以快速复制使用:

{
  env: { GLM_API_KEY: "your-api-key" },
  agents: {
    defaults: {
      model: { primary: "glm/glm-edge" },
    },
  },
}

模型引用格式:记住这个规则

在 OpenClaw 中引用 GLM 模型,格式是固定的,一定要记牢:

glm/<model-name>

我常用的几个模型示例:

模型 ID 说明 我通常在什么场景下使用
glm/glm-edge GLM-Edge 模型 日常对话和代码生成,平衡性能和成本
glm/glm-pro GLM-Pro 模型 处理复杂的逻辑推理或长文本分析任务
glm/glm-flash GLM-Flash 模型 需要极快响应的场景,比如实时对话
glm/cogview CogView 图像生成 偶尔需要文生图的时候会用到

几个重要的注意事项:
- 模型 ID 是通过第一个 / 来分割的。
- glm/ 这个前缀是用来标识 provider 的,不能省略。
- 如果你省略了 provider 前缀,OpenClaw 会把它当作一个别名去查找,可能会出错。


切换模型:根据任务灵活选择

设置 GLM 为默认模型

根据手头的任务,我经常在不同模型间切换。命令很简单:

# 设置 GLM-Edge 为默认模型,性价比之选
openclaw models set glm/glm-edge

# 设置 GLM-Pro 为默认模型,应对复杂任务
openclaw models set glm/glm-pro

# 如果你已经创建了别名(比如`glm/edge`),用别名更快捷
openclaw models set glm/edge

查看当前模型状态

切换之后,最好确认一下。

# 查看当前默认用的是哪个模型
openclaw models status

# 列出所有可用的模型,看看有没有新选择
openclaw models list

# 探测认证状态是否正常
openclaw models status --probe

扫描新模型

OpenClaw 支持扫描 OpenRouter 等平台的免费模型,偶尔可以“淘淘宝”。

openclaw models scan

常用命令速查表

为了方便大家,我把最常用的命令整理成了表格,需要的时候看一眼就行。

操作 命令
添加认证 openclaw auth add
OAuth 登录 openclaw models auth login --provider glm
查看模型状态 openclaw models status
设置模型 openclaw models set glm/<model>
列出模型 openclaw models list
扫描模型 openclaw models scan
启用插件 openclaw plugins enable glm-auth
查看帮助 openclaw models --help

故障排除:我踩过的那些坑

配置过程中难免会遇到问题,这里分享一些我遇到过的常见错误和解决方法。

401 Unauthorized 错误

我遇到的可能原因:
- API Key 无效或者已经过期了。
- API Key 的格式复制错了(比如多了空格)。

我是这么解决的:

# 重新设置一遍 API Key
openclaw auth add

# 或者,仔细检查配置文件里的 API Key 字符串是否正确

403 Forbidden 错误

我遇到的可能原因:
- 账户余额不足了。
- 这个模型对你的账户还没有开放权限。
- API Key 的权限设置不够。

我是这么解决的:
1. 立刻登录智谱 AI 控制台,检查一下余额。
2. 确认你想用的模型是否在可用列表里。
3. 检查 API Key 的权限设置,确保它有你需要的权限。

429 Too Many Requests 错误

我遇到的可能原因:
- 请求发送得太快了,触发了频率限制。
- 账户的总额度用完了。

我是这么解决的:
- 在代码里加个延迟,降低一下请求频率。
- 如果确实需要更高限额,可以联系智谱 AI 官方申请。

模型找不到错误

我遇到的可能原因:
- 模型引用格式写错了,这是最常见的原因。
- 模型名称拼写有误。

我是这么解决的:

# 使用正确的格式:glm/<model-name>
openclaw models set glm/glm-edge

# 先列出所有可用模型,确认一下名称到底对不对
openclaw models list

OAuth Token 过期

症状: API 调用突然开始返回 401 错误,提示 token 过期了。

我是这么解决的:

# 重新运行一遍 OAuth 登录流程,获取新的 token
openclaw models auth login --provider glm

高级配置:玩出更多花样

当你熟悉了基础操作后,可以试试这些高级配置,让 OpenClaw 更贴合你的工作流。

多 Provider 配置

我可以同时配置多个模型提供商,让 OpenClaw 成为一个聚合入口。

providers:
  glm:
    api_key: ${GLM_API_KEY}
  openrouter:
    api_key: ${OPENROUTER_API_KEY}
  qwen-portal:
    oauth: true

agents:
  - id: default
    models:
      - id: glm/glm-edge
      - id: openrouter/anthropic/claude-sonnet-4-5  # 作为备用(fallback)

自定义 Base URL

如果需要连接自部署的或特定环境的 GLM 服务,可以修改 base_url。

providers:
  glm:
    api_key: ${GLM_API_KEY}
    base_url: https://open.bigmodel.cn/api/paas/v4

模型 Fallback 配置

设置备用模型链,当首选模型不可用时,自动切换到下一个,保证服务不中断。

agents:
  default:
    models:
      - id: glm/glm-edge
    fallbacks:
      - glm/glm-flash
      - openrouter/google/gemini-flash-1.5

GLM 模型性能参考(我的使用感受)

这里是我根据官方信息和实际使用体验整理的一个参考表,主要关注成本和特点,帮助你做选择。

模型 上下文窗口 输入价格(参考) 输出价格(参考) 我的使用感受
GLM-Edge 128K ¥0.5/1M tokens ¥1/1M tokens 性价比之王,大部分任务用它就够了
GLM-Pro 128K ¥10/1M tokens ¥30/1M tokens 能力最强,处理复杂任务时效果显著
GLM-Flash 128K ¥0.1/1M tokens ¥0.5/1M tokens 速度飞快,适合对延迟要求高的场景

注意:价格是参考值,实际价格请务必以智谱 AI 官网公布的最新信息为准。


相关文档和延伸阅读

如果你想深入了解,这些资料可能会对你有帮助:
- 智谱 AI 开放平台
- GLM API 官方文档
- Open Claw 切换模型操作手册
- Open Claw Qwen 模型配置指南
- Open Claw OpenRouter 配置指南


文档版本:1.0
最后更新:2026-03-14

当前文章价值9.5元,扫一扫支付后添加微信提供帮助!(如不能解决您的问题,可以申请退款)

你可能感兴趣的文章

来源:每日教程每日一例,深入学习实用技术教程,关注公众号TeachCourse
转载请注明出处: https://teachcourse.cn/3889.html ,谢谢支持!

资源分享

Android项目结构与分析源码,其中的秘密,你知道吗? Android项目结构与分析源码,其
PopupWindow实现微信绑定开户行弹窗效果 PopupWindow实现微信绑定开户行
WordPress文章分页插件:Multi-page Toolkit WordPress文章分页插件:Mult
008-如何在 Ubuntu 22.0420.04 上设置 Shadowsocks-libev 代理服务器 008-如何在 Ubuntu 22.0420.04

评论已关闭!