OpenClaw 换模型全攻略:3步轻松搞定各种大模型配置
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
核心干货:OpenClaw 骨子里其实没脑子,它就是个空壳,靠外接大模型来思考。想换个模型用?其实特简单,就三招:拿 Key、改配置、重启生效。不管是你想用免费的元宝、豆包、智谱,还是追求极客范儿的 DeepSeek,甚至是自己在电脑里跑的 Ollama,只要支持 OpenAI 那套协议,通通都能接进来。而且你还能同时配好几个模型,主模型累了自动让备胎顶上,完全免费或者极低成本就能玩转。
开篇:别让你的“龙虾”没脑子
咱们圈子里都管 OpenClaw 叫“龙虾”,因为它干活儿确实猛,翻文件、控浏览器、跨软件操作甚至玩转硬件都不在话下。但很多人搞错了一点:OpenClaw 自己不带 AI 模型。这就好比你买了一台配置顶天的电脑,没装系统也白搭。OpenClaw 到底聪不聪明,全看你给它配了啥“大脑”:
- 好不好用:取决于模型的智商。
- 费不费钱:看你选了白嫖版还是付费版。
- 隐不隐私:看你是用云端接口还是自己本地跑。
最给力的是,OpenClaw 能让你同时配好几个模型,万一主力挂了,备选能秒切,保证你的“龙虾”永远在线。今天咱们就根据最新的配置要求,手把手教你给 OpenClaw 换个更聪明的脑子。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第一章:搞清原理——OpenClaw 是怎么连上大模型的?
1.1 为什么要折腾换模型?
OpenClaw 的价值在于它能把大模型的“脑力”变成电脑的“体力”。不同的场景,选不同的脑子才划算:
| 场景 | 推荐模型 | 理由 |
|---|---|---|
| 平时聊天、改个文档 | 元宝、智谱 GLM | 中文贼溜,免费额度给得大方 |
| 写代码、搞复杂逻辑 | DeepSeek、Claude | 脑子好使,写代码逻辑稳 |
| 怕数据泄露、机密活儿 | 本地模型 (Ollama/LM Studio) | 数据不出门,断网也能用 |
| 刷量用、高频折腾 | 元宝/豆包免费版 | 零撸首选,不心疼钱 |
| 翻译、英文活儿 | GPT、Claude | 英语是人家母语,没得说 |
1.2 OpenClaw 的配置长啥样?
OpenClaw 的模型设置全在一个 JSON 文件里,别怕,找准位置就行:
- 苹果/Linux 用户:
~/.openclaw/openclaw.json - Windows 用户:
C:\Users\用户名\.openclaw\openclaw.json
大概长这样:
{
"models": {
"providers": {
"厂家ID": {
"baseUrl": "接口地址",
"apiKey": "你的密钥",
"api": "openai-completions",
"models": [
{
"id": "具体模型名字",
"name": "你想叫它啥",
"contextWindow": 上下文长度,
"maxTokens": 单次最大输出
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "厂家ID/模型ID",
"fallback": "备用厂家ID/模型ID"
}
}
}
}
配置重点:
- providers:就是大模型厂家,能加好几家。
- baseUrl:接口的“家门口”,只要兼容 OpenAI 协议就行。
- apiKey:进门的钥匙。
- primary/fallback:主力军和预备役,主模型崩了备用的上。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
1.3 常见的几种接入方式
- 云端商业版:像腾讯元宝、百度、DeepSeek 这种,拿 Key 就能用,按量扣钱或有免费包。
- 白嫖专用版:豆包、元宝的免费 API,主打一个不花钱。
- 本地私有版:自己电脑跑 Ollama,完全免费,隐私拉满。
1.4 怎么快速换模型?
OpenClaw 提供了三种姿势,哪个顺手用哪个:
- Web 界面:网页右上角点一下,下拉菜单随便选。
- 命令行:敲一句
openclaw models set 厂家/模型ID,极客必备。 - 聊天框:直接打
/model 模型ID就能瞬移切换。
常用的命令如下:
# 看看现在配了哪些模型
openclaw models list
# 看看现在默认是哪个
openclaw models current
# 换个默认模型
openclaw models set yuanbao/hunyuan-turbo
# 临时换个模型聊两句
openclaw chat --model yuanbao/hunyuan-turbo --prompt "测试一下"
第二章:云端模型怎么接?主流方案全在这了
2.1 腾讯元宝(强烈推荐,中文好用)
腾讯的混元模型现在挺大方,中文理解力强,还有不少免费额度。
第一步:去拿 Key
- 进腾讯云,搜“元宝大模型”。
- 在密钥管理里点一下“创建”,把那个
sk-xxx的字符串存好。
第二步:改 OpenClaw 配置
打开你的openclaw.json,把这段塞进去:
{
"models": {
"providers": {
"yuanbao": {
"baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
"apiKey": "填你刚才拿到的Key",
"api": "openai-completions",
"models": [
{
"id": "hunyuan-turbo",
"name": "混元 Turbo",
"contextWindow": 128000,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "yuanbao/hunyuan-turbo"
}
}
}
}
第三步:重启重启!
openclaw gateway restart
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
2.2 豆包模型
字节家的豆包,脑洞大,多模态厉害。去火山引擎控制台拿 Key,配置参考如下:
"doubao": {
"baseUrl": "https://ark.cn-beijing.volces.com/api/v3",
"apiKey": "你的豆包Key",
"api": "openai-completions",
"models": [
{ "id": "doubao-pro-32k", "name": "豆包 Pro" }
]
}
2.3 DeepSeek
开发者的最爱,写代码贼猛。去 DeepSeek 官网开通 API 即可。
"deepseek": {
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "你的DeepSeek Key",
"api": "openai-completions",
"models": [
{ "id": "deepseek-chat", "name": "DeepSeek 聊天" }
]
}
2.4 智谱 GLM
老牌强队,GLM-4 挺能打,免费包也挺厚。
"zhipu": {
"baseUrl": "https://open.bigmodel.cn/api/paas/v4",
"apiKey": "你的智谱Key",
"api": "openai-completions",
"models": [
{ "id": "glm-4-plus", "name": "智谱 Plus" }
]
}
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
2.5 各种野生 OpenAI 接口
如果你在用第三方中转或者公司内网模型,只要它兼容 OpenAI,都能这么配:
"custom": {
"baseUrl": "接口的具体地址/v1",
"apiKey": "对应的Key",
"api": "openai-completions",
"models": [
{ "id": "模型在平台里的ID", "name": "随便起个名" }
]
}
第三章:本地跑模型——不花钱,还安全
如果你电脑显卡够给力,或者纯粹不想数据上网,本地部署绝对是真香选择。
3.1 姿势一:Ollama(最省心)
安装:官网下个安装包,或者命令行一行搞定。
跑起来:
ollama run qwen2.5:7b # 推荐通义千问,好用不贵(显存)
配进 OpenClaw:
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "no-key",
"models": [
{ "id": "qwen2.5:7b", "name": "本地千问" }
]
}
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
3.2 姿势二:LM Studio(有界面,适合小白)
这玩意儿带图形界面,下模型跟下游戏一样方便。下好后在 Server 选项里把 API 开关打开,默认地址通常是 http://localhost:1234/v1。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
3.3 硬件到底行不行?
想跑本地模型,参考下这个:
| 模型大小 | 显存 | 建议硬件 |
|---|---|---|
| 1B-3B | 2-4G | 普通办公本就行 |
| 7B-9B | 6-8G | 3060 或 4060 |
| 32B 以上 | 24G+ | 4090 或 A100 |
第四章:高级玩法——“备胎”机制和安全管理
4.1 自动降级(不怕挂)
你可以配个主力(比如收费的 GPT),再配个备胎(比如本地的 Qwen)。主力要是抽风了,OpenClaw 会自动找备胎干活。
"defaults": {
"model": {
"primary": "cloud/hunyuan-pro",
"fallback": "ollama/qwen2.5:7b"
}
}
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
4.2 别把 Key 露给别人
直接把 API Key 写在配置文件里不太安全。你可以把它设成电脑的环境变量,配置文件里写 ${MY_KEY},这样就稳多了。
第五章:常用命令随手查
| 命令 | 干啥用的 |
|---|---|
openclaw models list |
看看都有啥模型 |
openclaw models set ID |
换掉默认模型 |
openclaw config get models |
检查配置有没有写错 |
openclaw gateway restart |
改完配置必做动作 |
| 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! |
第六章:踩坑指南
Q1:配置改了,没反应?
别忘了重启服务!执行 openclaw gateway restart。再查查 Key 前后有没有多打空格。
Q2:提示连接不上?
看看网络通不通,或者是不是 API 额度用完了。要是本地模型,确认下 Ollama 是不是真的跑着呢。
Q3:本地模型卡成 PPT?
可能是模型太大了,显存吃不消。试着换个小点的(比如从 7B 换到 1.5B),或者把上下文长度调小点。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
总结:脑子换得好,干活才地道
OpenClaw 最牛的地方就是它不挑脑子。你想要便宜的、聪明的、还是保密的,随你便。
再撸一遍三步走:
- 拿 Key 或起服务。
- 改
openclaw.json。 - 重启生效。
赶紧去给你的“龙虾”换个聪明脑瓜吧,让它替你搞定那些琐碎的电脑活儿!
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)