我在 OpenClaw 中配置 GLM(智谱 AI)模型的实战经验
概述
今天我想和大家分享一下,我是如何在 OpenClaw 中成功配置智谱 AI(Zhipu AI)的 GLM 大语言模型系列的。GLM 作为国内领先的模型,在中文理解和代码生成方面表现非常出色,而 OpenClaw 对它的支持也相当完善,提供了 API Key 和 OAuth 两种认证方式,用起来很灵活。
我总结的几个亮点:
- ✅ 支持 GLM-Edge、GLM-Pro 等多个模型版本,可以根据任务需求选择
- ✅ API Key 和 OAuth 两种认证方式,总有一种适合你
- ✅ 与 OpenAI API 兼容,迁移成本低
- ✅ 中文理解和生成能力强,对国内开发者非常友好
- ✅ 特别适合代码生成和日常对话场景
快速开始:两种认证方式任你选
方式一:使用 API Key 认证(我的首选)
这种方式最直接,也最常用。下面是我一步步走下来的流程。
步骤 1:获取你的 GLM API Key
- 首先,访问 智谱 AI 开放平台。
- 登录或注册你的账号。
- 进入 控制台 → API Key 管理 页面。
- 点击 创建 API Key 按钮。
- 最重要的一步:复制并妥善保存生成的 API Key(它的格式通常是
xxxxx.xxxxx)。
┌─────────────────────────────────────────────────────────┐
│ API Key 管理 │
├─────────────────────────────────────────────────────────┤
│ API Key │
│ ┌─────────────────────────────────────────────────┐ │
│ │ abc123def456...xyz │ [复制] │
│ └─────────────────────────────────────────────────┘ │
│ │
│ [+ 创建新 API Key] │
└─────────────────────────────────────────────────────────┘
步骤 2:通过 CLI 命令快速设置
拿到 Key 之后,回到你的终端,用 OpenClaw 的命令行工具来设置。我个人喜欢用交互式命令,比较直观。
# 交互式添加认证,跟着提示走就行
openclaw auth add
# 或者,如果你喜欢一步到位,可以直接用这条命令
openclaw onboard --auth-choice apiKey --token-provider glm --token "your-api-key"
步骤 3:验证一下配置是否成功
设置完别急着用,先验证一下,这是我养成的好习惯。
# 查看模型状态,确认 GLM 已经就绪
openclaw models status
# 如果想看更结构化的信息,可以用 JSON 格式输出
openclaw models status --json
方式二:使用 OAuth 认证
如果你不想管理 API Key,或者你的团队在使用 OAuth 流程,这种方式会更方便。
步骤 1:启用相关插件(如果需要的话)
有些情况下可能需要先启用插件。
openclaw plugins enable glm-auth
步骤 2:进行 OAuth 登录
运行登录命令,它会引导你完成设备码授权流程。
openclaw models auth login --provider glm --set-default
这个命令会帮你做几件事:
- 启动 OAuth device-code 流程,你只需要在浏览器里授权一下。
- 自动在 models.json 配置文件中写入 provider 信息。
- 创建一个 glm 别名,方便后续使用。
配置文件设置:让配置更持久
除了命令行,直接修改配置文件也是一种很“极客”的方式,适合需要固定配置的场景。
方法一:使用环境变量
我喜欢把敏感信息放在环境变量里,这样更安全。在你的配置文件中(比如 config.yaml)可以这样设置:
env:
GLM_API_KEY: "your-api-key"
方法二:直接编辑配置文件
直接编辑 ~/.openclaw/config.yaml 或 ~/.openclaw/openclaw.json 文件,进行更精细的控制。
# 这是一个完整的配置示例,你可以参考
providers:
glm:
api_key: ${GLM_API_KEY} # 这里引用了上面的环境变量
base_url: https://open.bigmodel.cn/api/paas/v4
agents:
default:
auth:
- provider: glm
api_key: ${GLM_API_KEY}
models:
- id: glm/glm-edge
配置代码片段(Config Snippet)
这里还有一个简洁的配置片段,你可以快速复制使用:
{
env: { GLM_API_KEY: "your-api-key" },
agents: {
defaults: {
model: { primary: "glm/glm-edge" },
},
},
}
模型引用格式:记住这个规则
在 OpenClaw 中引用 GLM 模型,格式是固定的,一定要记牢:
glm/<model-name>
我常用的几个模型示例:
| 模型 ID | 说明 | 我通常在什么场景下使用 |
|---|---|---|
glm/glm-edge |
GLM-Edge 模型 | 日常对话和代码生成,平衡性能和成本 |
glm/glm-pro |
GLM-Pro 模型 | 处理复杂的逻辑推理或长文本分析任务 |
glm/glm-flash |
GLM-Flash 模型 | 需要极快响应的场景,比如实时对话 |
glm/cogview |
CogView 图像生成 | 偶尔需要文生图的时候会用到 |
几个重要的注意事项:
- 模型 ID 是通过第一个 / 来分割的。
- glm/ 这个前缀是用来标识 provider 的,不能省略。
- 如果你省略了 provider 前缀,OpenClaw 会把它当作一个别名去查找,可能会出错。
切换模型:根据任务灵活选择
设置 GLM 为默认模型
根据手头的任务,我经常在不同模型间切换。命令很简单:
# 设置 GLM-Edge 为默认模型,性价比之选
openclaw models set glm/glm-edge
# 设置 GLM-Pro 为默认模型,应对复杂任务
openclaw models set glm/glm-pro
# 如果你已经创建了别名(比如`glm/edge`),用别名更快捷
openclaw models set glm/edge
查看当前模型状态
切换之后,最好确认一下。
# 查看当前默认用的是哪个模型
openclaw models status
# 列出所有可用的模型,看看有没有新选择
openclaw models list
# 探测认证状态是否正常
openclaw models status --probe
扫描新模型
OpenClaw 支持扫描 OpenRouter 等平台的免费模型,偶尔可以“淘淘宝”。
openclaw models scan
常用命令速查表
为了方便大家,我把最常用的命令整理成了表格,需要的时候看一眼就行。
| 操作 | 命令 |
|---|---|
| 添加认证 | openclaw auth add |
| OAuth 登录 | openclaw models auth login --provider glm |
| 查看模型状态 | openclaw models status |
| 设置模型 | openclaw models set glm/<model> |
| 列出模型 | openclaw models list |
| 扫描模型 | openclaw models scan |
| 启用插件 | openclaw plugins enable glm-auth |
| 查看帮助 | openclaw models --help |
故障排除:我踩过的那些坑
配置过程中难免会遇到问题,这里分享一些我遇到过的常见错误和解决方法。
401 Unauthorized 错误
我遇到的可能原因:
- API Key 无效或者已经过期了。
- API Key 的格式复制错了(比如多了空格)。
我是这么解决的:
# 重新设置一遍 API Key
openclaw auth add
# 或者,仔细检查配置文件里的 API Key 字符串是否正确
403 Forbidden 错误
我遇到的可能原因:
- 账户余额不足了。
- 这个模型对你的账户还没有开放权限。
- API Key 的权限设置不够。
我是这么解决的:
1. 立刻登录智谱 AI 控制台,检查一下余额。
2. 确认你想用的模型是否在可用列表里。
3. 检查 API Key 的权限设置,确保它有你需要的权限。
429 Too Many Requests 错误
我遇到的可能原因:
- 请求发送得太快了,触发了频率限制。
- 账户的总额度用完了。
我是这么解决的:
- 在代码里加个延迟,降低一下请求频率。
- 如果确实需要更高限额,可以联系智谱 AI 官方申请。
模型找不到错误
我遇到的可能原因:
- 模型引用格式写错了,这是最常见的原因。
- 模型名称拼写有误。
我是这么解决的:
# 使用正确的格式:glm/<model-name>
openclaw models set glm/glm-edge
# 先列出所有可用模型,确认一下名称到底对不对
openclaw models list
OAuth Token 过期
症状: API 调用突然开始返回 401 错误,提示 token 过期了。
我是这么解决的:
# 重新运行一遍 OAuth 登录流程,获取新的 token
openclaw models auth login --provider glm
高级配置:玩出更多花样
当你熟悉了基础操作后,可以试试这些高级配置,让 OpenClaw 更贴合你的工作流。
多 Provider 配置
我可以同时配置多个模型提供商,让 OpenClaw 成为一个聚合入口。
providers:
glm:
api_key: ${GLM_API_KEY}
openrouter:
api_key: ${OPENROUTER_API_KEY}
qwen-portal:
oauth: true
agents:
- id: default
models:
- id: glm/glm-edge
- id: openrouter/anthropic/claude-sonnet-4-5 # 作为备用(fallback)
自定义 Base URL
如果需要连接自部署的或特定环境的 GLM 服务,可以修改 base_url。
providers:
glm:
api_key: ${GLM_API_KEY}
base_url: https://open.bigmodel.cn/api/paas/v4
模型 Fallback 配置
设置备用模型链,当首选模型不可用时,自动切换到下一个,保证服务不中断。
agents:
default:
models:
- id: glm/glm-edge
fallbacks:
- glm/glm-flash
- openrouter/google/gemini-flash-1.5
GLM 模型性能参考(我的使用感受)
这里是我根据官方信息和实际使用体验整理的一个参考表,主要关注成本和特点,帮助你做选择。
| 模型 | 上下文窗口 | 输入价格(参考) | 输出价格(参考) | 我的使用感受 |
|---|---|---|---|---|
| GLM-Edge | 128K | ¥0.5/1M tokens | ¥1/1M tokens | 性价比之王,大部分任务用它就够了 |
| GLM-Pro | 128K | ¥10/1M tokens | ¥30/1M tokens | 能力最强,处理复杂任务时效果显著 |
| GLM-Flash | 128K | ¥0.1/1M tokens | ¥0.5/1M tokens | 速度飞快,适合对延迟要求高的场景 |
注意:价格是参考值,实际价格请务必以智谱 AI 官网公布的最新信息为准。
相关文档和延伸阅读
如果你想深入了解,这些资料可能会对你有帮助:
- 智谱 AI 开放平台
- GLM API 官方文档
- Open Claw 切换模型操作手册
- Open Claw Qwen 模型配置指南
- Open Claw OpenRouter 配置指南
文档版本:1.0
最后更新:2026-03-14
当前文章价值9.5元,扫一扫支付后添加微信提供帮助!(如不能解决您的问题,可以申请退款)

评论已关闭!