手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

大白话总结:OpenClaw 肚子里其实没装模型,它就是个干活的架子,得靠外接模型当“大脑”。想换个模型用?简单,分三步:找个模型领个 API Key、往配置文件里加几行字、重启一下网关。不管是大厂出的元宝、豆包、DeepSeek,还是你自己电脑里跑的 Ollama,只要支持 OpenAI 协议都能接。不仅免费额度管够,你还能多配几个,这个断网了那个顶上。

开篇:别让你的“龙虾”变傻了

大家喜欢把 OpenClaw 叫“龙虾”,因为它能操作电脑、刷网页、处理文件,手脚非常利索。但有个事儿很多人没搞明白:OpenClaw 自己是不带脑子的
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
这就像你买了个顶配电脑没装系统。OpenClaw 聪不聪明、花不花钱、保不保险,全看你给它接了啥模型。而且它还支持同时接好几个模型,万一主力挂了,备用的立马顶上去,保证你的“龙虾”时刻在线。
这篇教程会教你如何根据自己的需求,给 OpenClaw 换上最合适的“大脑”,从云端大厂到本地私有化部署全覆盖。

第一章:搞懂 OpenClaw 是怎么连接模型的

1.1 为什么要费劲换模型?

OpenClaw 负责“干活”,模型负责“思考”。不同的模型脾气不一样:

你的需求 推荐选啥 理由
平常聊天、改个文档 元宝、智谱 GLM 中文说得溜,免费额度给得大方
写代码、搞深度推理 DeepSeek、Claude 逻辑死磕到底,写代码一把手
怕数据泄露,想偷偷用 本地模型 (Ollama) 拔了网线也能用,数据不出家门
一分钱不想花 元宝/豆包免费版 羊毛薅到爽
经常说英文 GPT、Claude 国际范儿,外语水平高
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
1.2 配置文件长啥样?

OpenClaw 的配置都在一个 JSON 文件里,别怕,按路径找就行:

  • 苹果/Linux 用户~/.openclaw/openclaw.json
  • Windows 用户C:\Users\你的用户名\.openclaw\openclaw.json
    里面的核心结构大概是这样:
{
  "models": {
    "providers": {
      "名字随便起": {
        "baseUrl": "API 的接口地址",
        "apiKey": "你的那一串密钥",
        "api": "openai-completions",
        "models": [
          {
            "id": "模型在后台的名字",
            "name": "你想让它显示的名字",
            "contextWindow": 记性有多好,
            "maxTokens": 一次最多吐多少字
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "首选哪个模型",
        "fallback": "备用哪个模型"
      }
    }
  }
}

简单说:providers 决定了模型是谁家的,apiKey 是进门的钥匙,primary/fallback 就是“老大”和“备胎”的关系。

1.3 常见的几种模型类型

云端大厂模型(像腾讯元宝、百度、智谱)得联网,有的按量收钱,有的送免费额度;本地模型(像 Ollama)得靠你自家显卡跑,完全免费而且够私密。

1.4 怎么快速换模型?

OpenClaw 准备了三种法子,看你喜欢哪个:

第二章:云端模型怎么接?

2.1 腾讯元宝(中文环境首选)

腾讯自家的东西,理解中文很厉害,而且现在免费额度挺豪爽的。

  1. 拿钥匙:去腾讯云控制台,找元宝大模型,创建一个 API 密钥。
  2. 改配置:打开 openclaw.json,把下面这段粘进去:
{
  "models": {
    "providers": {
      "yuanbao": {
        "baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
        "apiKey": "填你刚才领的 sk-xxx",
        "api": "openai-completions",
        "models": [
          {
            "id": "hunyuan-turbo",
            "name": "混元 Turbo",
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}
  1. 重启:在终端输入 openclaw gateway restart
2.2 字节跳动豆包

豆包脑洞大,出创意很快,也有不少免费额度。去火山引擎拿个 API Key,然后配置里的 baseUrl 换成豆包的地址就行了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

2.3 DeepSeek(逻辑、代码王)

程序员的最爱,便宜又大碗。去 DeepSeek 官网注册个号,领了 Key 往配置里一填,逻辑能力蹭蹭涨。

2.4 智谱 GLM 与百度千帆

智谱的 GLM-4 很稳,百度千帆的文心一言也有很多人用,操作逻辑都大同小异:领 Key -> 填 JSON -> 重启。

2.5 万能接入法

只要对方支持 OpenAI 的标准接口,你就能用 custom 模式把它接进来。比如像硅基流动这种聚合平台,一个 Key 就能玩转好几十个模型。

第三章:在自家电脑跑模型(完全免费+隐私无忧)

不想把聊天记录传到网上?那就在本地跑。

3.1 用 Ollama 部署(最推荐)
  1. 安装:官网下个 Ollama,一键安装。
  2. 下模型:在黑窗口输入 ollama run qwen2.5:7b,模型就下到你电脑里了。
  3. 写配置
"ollama": {
  "baseUrl": "http://127.0.0.1:11434/v1",
  "apiKey": "no-key",
  "api": "openai-completions",
  "models": [{"id": "qwen2.5:7b", "name": "本地千问"}]
}

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

3.2 用 LM Studio 部署(带界面的)

如果你不喜欢敲代码,LM Studio 有图形界面。下载模型、开启 Server 模式,剩下的配置跟 Ollama 差不多,只是端口号改一改。

3.3 电脑配置够用吗?
  • 普通电脑:跑 1B-3B 的小模型,反应还挺快。
  • 3060/4060 显卡:跑 7B-9B 模型正合适,聪明程度够用了。
  • 4090 土豪机:随便折腾 32B 的大家伙。

第四章:进阶技巧:多模型混搭

4.1 设置“备胎”机制

怕主力模型突然欠费停机?在配置里把 primary 设为你的最爱,把 fallback 设为一个免费或本地模型,这样万无一失。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

4.2 保护你的 Key

别把那一长串密钥直接写在 JSON 里到处传。你可以把它们设成系统的“环境变量”,配置文件里用 ${MY_KEY} 代替,这样安全多了。

第五章:常用命令小本本

想干啥 敲什么命令
看看有哪些模型 openclaw models list
换成某个模型 openclaw models set 供应商/模型名
临时测试一下 openclaw chat --model 模型ID --prompt "在吗"
重启网关 openclaw gateway restart
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第六章:遇到坑了怎么办?

  • 连不上模型:先看 API Key 是不是抄错了,再看看是不是账号没钱了。
  • 本地模型太卡:换个小点的模型(比如从 7B 降到 1.5B),或者把模型量化等级调低。
  • 不知道生效没:问它“你是谁”,看它报出的家门对不对。

结语:大脑换得好,干活没烦恼

OpenClaw 厉害就厉害在它不挑食。想省钱就用元宝免费版,想写代码就接 DeepSeek,想保密就用 Ollama。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
最后再唠叨一遍流程:拿 Key、改 JSON、重启。搞定!赶紧去给你那只“龙虾”升级一下智商吧。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐