手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

核心干货:OpenClaw 骨子里其实没脑子,它就是个空壳,靠外接大模型来思考。想换个模型用?其实特简单,就三招:拿 Key、改配置、重启生效。不管是你想用免费的元宝、豆包、智谱,还是追求极客范儿的 DeepSeek,甚至是自己在电脑里跑的 Ollama,只要支持 OpenAI 那套协议,通通都能接进来。而且你还能同时配好几个模型,主模型累了自动让备胎顶上,完全免费或者极低成本就能玩转。

开篇:别让你的“龙虾”没脑子

咱们圈子里都管 OpenClaw 叫“龙虾”,因为它干活儿确实猛,翻文件、控浏览器、跨软件操作甚至玩转硬件都不在话下。但很多人搞错了一点:OpenClaw 自己不带 AI 模型。这就好比你买了一台配置顶天的电脑,没装系统也白搭。OpenClaw 到底聪不聪明,全看你给它配了啥“大脑”:

  • 好不好用:取决于模型的智商。
  • 费不费钱:看你选了白嫖版还是付费版。
  • 隐不隐私:看你是用云端接口还是自己本地跑。
    最给力的是,OpenClaw 能让你同时配好几个模型,万一主力挂了,备选能秒切,保证你的“龙虾”永远在线。今天咱们就根据最新的配置要求,手把手教你给 OpenClaw 换个更聪明的脑子。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第一章:搞清原理——OpenClaw 是怎么连上大模型的?

1.1 为什么要折腾换模型?

OpenClaw 的价值在于它能把大模型的“脑力”变成电脑的“体力”。不同的场景,选不同的脑子才划算:

场景 推荐模型 理由
平时聊天、改个文档 元宝、智谱 GLM 中文贼溜,免费额度给得大方
写代码、搞复杂逻辑 DeepSeek、Claude 脑子好使,写代码逻辑稳
怕数据泄露、机密活儿 本地模型 (Ollama/LM Studio) 数据不出门,断网也能用
刷量用、高频折腾 元宝/豆包免费版 零撸首选,不心疼钱
翻译、英文活儿 GPT、Claude 英语是人家母语,没得说
1.2 OpenClaw 的配置长啥样?

OpenClaw 的模型设置全在一个 JSON 文件里,别怕,找准位置就行:

  • 苹果/Linux 用户~/.openclaw/openclaw.json
  • Windows 用户C:\Users\用户名\.openclaw\openclaw.json
    大概长这样:
{
  "models": {
    "providers": {
      "厂家ID": {
        "baseUrl": "接口地址",
        "apiKey": "你的密钥",
        "api": "openai-completions",
        "models": [
          {
            "id": "具体模型名字",
            "name": "你想叫它啥",
            "contextWindow": 上下文长度,
            "maxTokens": 单次最大输出
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "厂家ID/模型ID",
        "fallback": "备用厂家ID/模型ID"
      }
    }
  }
}

配置重点

1.3 常见的几种接入方式
  • 云端商业版:像腾讯元宝、百度、DeepSeek 这种,拿 Key 就能用,按量扣钱或有免费包。
  • 白嫖专用版:豆包、元宝的免费 API,主打一个不花钱。
  • 本地私有版:自己电脑跑 Ollama,完全免费,隐私拉满。
1.4 怎么快速换模型?

OpenClaw 提供了三种姿势,哪个顺手用哪个:

  • Web 界面:网页右上角点一下,下拉菜单随便选。
  • 命令行:敲一句 openclaw models set 厂家/模型ID,极客必备。
  • 聊天框:直接打 /model 模型ID 就能瞬移切换。
    常用的命令如下:
# 看看现在配了哪些模型
openclaw models list
# 看看现在默认是哪个
openclaw models current
# 换个默认模型
openclaw models set yuanbao/hunyuan-turbo
# 临时换个模型聊两句
openclaw chat --model yuanbao/hunyuan-turbo --prompt "测试一下"

第二章:云端模型怎么接?主流方案全在这了

2.1 腾讯元宝(强烈推荐,中文好用)

腾讯的混元模型现在挺大方,中文理解力强,还有不少免费额度。
第一步:去拿 Key

  1. 进腾讯云,搜“元宝大模型”。
  2. 在密钥管理里点一下“创建”,把那个 sk-xxx 的字符串存好。
    第二步:改 OpenClaw 配置
    打开你的 openclaw.json,把这段塞进去:
{
  "models": {
    "providers": {
      "yuanbao": {
        "baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
        "apiKey": "填你刚才拿到的Key",
        "api": "openai-completions",
        "models": [
          {
            "id": "hunyuan-turbo",
            "name": "混元 Turbo",
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "yuanbao/hunyuan-turbo"
      }
    }
  }
}

第三步:重启重启!

openclaw gateway restart

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

2.2 豆包模型

字节家的豆包,脑洞大,多模态厉害。去火山引擎控制台拿 Key,配置参考如下:

"doubao": {
  "baseUrl": "https://ark.cn-beijing.volces.com/api/v3",
  "apiKey": "你的豆包Key",
  "api": "openai-completions",
  "models": [
    { "id": "doubao-pro-32k", "name": "豆包 Pro" }
  ]
}
2.3 DeepSeek

开发者的最爱,写代码贼猛。去 DeepSeek 官网开通 API 即可。

"deepseek": {
  "baseUrl": "https://api.deepseek.com/v1",
  "apiKey": "你的DeepSeek Key",
  "api": "openai-completions",
  "models": [
    { "id": "deepseek-chat", "name": "DeepSeek 聊天" }
  ]
}
2.4 智谱 GLM

老牌强队,GLM-4 挺能打,免费包也挺厚。

"zhipu": {
  "baseUrl": "https://open.bigmodel.cn/api/paas/v4",
  "apiKey": "你的智谱Key",
  "api": "openai-completions",
  "models": [
    { "id": "glm-4-plus", "name": "智谱 Plus" }
  ]
}

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

2.5 各种野生 OpenAI 接口

如果你在用第三方中转或者公司内网模型,只要它兼容 OpenAI,都能这么配:

"custom": {
  "baseUrl": "接口的具体地址/v1",
  "apiKey": "对应的Key",
  "api": "openai-completions",
  "models": [
    { "id": "模型在平台里的ID", "name": "随便起个名" }
  ]
}

第三章:本地跑模型——不花钱,还安全

如果你电脑显卡够给力,或者纯粹不想数据上网,本地部署绝对是真香选择。

3.1 姿势一:Ollama(最省心)

安装:官网下个安装包,或者命令行一行搞定。
跑起来

ollama run qwen2.5:7b # 推荐通义千问,好用不贵(显存)

配进 OpenClaw

"ollama": {
  "baseUrl": "http://127.0.0.1:11434/v1",
  "apiKey": "no-key",
  "models": [
    { "id": "qwen2.5:7b", "name": "本地千问" }
  ]
}

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

3.2 姿势二:LM Studio(有界面,适合小白)

这玩意儿带图形界面,下模型跟下游戏一样方便。下好后在 Server 选项里把 API 开关打开,默认地址通常是 http://localhost:1234/v1
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

3.3 硬件到底行不行?

想跑本地模型,参考下这个:

模型大小 显存 建议硬件
1B-3B 2-4G 普通办公本就行
7B-9B 6-8G 3060 或 4060
32B 以上 24G+ 4090 或 A100

第四章:高级玩法——“备胎”机制和安全管理

4.1 自动降级(不怕挂)

你可以配个主力(比如收费的 GPT),再配个备胎(比如本地的 Qwen)。主力要是抽风了,OpenClaw 会自动找备胎干活。

"defaults": {
  "model": {
    "primary": "cloud/hunyuan-pro",
    "fallback": "ollama/qwen2.5:7b"
  }
}

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

4.2 别把 Key 露给别人

直接把 API Key 写在配置文件里不太安全。你可以把它设成电脑的环境变量,配置文件里写 ${MY_KEY},这样就稳多了。

第五章:常用命令随手查

命令 干啥用的
openclaw models list 看看都有啥模型
openclaw models set ID 换掉默认模型
openclaw config get models 检查配置有没有写错
openclaw gateway restart 改完配置必做动作
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第六章:踩坑指南

Q1:配置改了,没反应?
别忘了重启服务!执行 openclaw gateway restart。再查查 Key 前后有没有多打空格。
Q2:提示连接不上?
看看网络通不通,或者是不是 API 额度用完了。要是本地模型,确认下 Ollama 是不是真的跑着呢。
Q3:本地模型卡成 PPT?
可能是模型太大了,显存吃不消。试着换个小点的(比如从 7B 换到 1.5B),或者把上下文长度调小点。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

总结:脑子换得好,干活才地道

OpenClaw 最牛的地方就是它不挑脑子。你想要便宜的、聪明的、还是保密的,随你便。
再撸一遍三步走:

  1. 拿 Key 或起服务
  2. openclaw.json
  3. 重启生效
    赶紧去给你的“龙虾”换个聪明脑瓜吧,让它替你搞定那些琐碎的电脑活儿!
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐