手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

简单说一下:OpenClaw这玩意儿本身没带“大脑”,它就是个负责干活的躯壳,得靠接外面的大模型才能思考。想换个“大脑”其实就三步:先去大模型平台领个API Key,然后在配置文件里加一下这个供应商的信息,最后重启一下网关就搞定了。不管是国内的元宝、豆包、DeepSeek、智谱,还是你自己电脑里跑的Ollama模型,只要接口是OpenAI那一套,全都能免费或极低成本地接进来。你甚至可以配好几个模型,这个挂了那个顶上。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

引言:为什么要给你的“龙虾”换个脑子?

很多人管OpenClaw叫“龙虾”,因为它操作起来很牛,能帮你翻文件、点浏览器、控制各种软件,甚至还能搞硬件。但大家经常忘了:OpenClaw自己是不会思考的
这就像你买了个配置顶级的电脑,没装系统也白搭。OpenClaw到底聪不聪明,全看你给它接了哪个模型。换句话说:

  • 活干得漂不漂亮,看你模型给力不。
  • 钱包缩水快不快,看你选的是免费还是氪金模型。
  • 隐私保护得好不好,看你是用网上的云端模型还是自己电脑跑的本地模型。
    最香的是,OpenClaw能让你同时备着好几个模型。你可以设个主力,再设个替补。万一主力模型额度没了或者卡壳了,它会自动切换,保证你的“龙虾”时刻在线。
    下面我就结合最新的文档和大家的玩法,从原理到具体配置,手把手教你怎么给OpenClaw换个好使的“大脑”。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第一章:搞明白核心逻辑——OpenClaw是怎么连模型的?

1.1 为什么要费劲换模型?

OpenClaw最大的价值就是当“翻译官”,把你给它的指令变成电脑能懂的操作。不同的模型脾气不一样:

你想干啥 推荐模型 理由
聊天、写中文文档 腾讯元宝、智谱 GLM 中文理解好,白嫖额度多
搞逻辑推理、写代码 DeepSeek、Claude 逻辑硬,代码写得溜
怕数据泄露、想离线用 本地模型(Ollama等) 数据都在自己手里,安全
追求极致省钱 元宝、豆包免费版 几乎不花钱
满世界跑、用外语 GPT、Claude 英文底子厚
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
1.2 OpenClaw的模型配置到底在哪?

这东西其实就是个JSON文件。根据你用的系统,去下面这些地方找:

  • Linux/Mac~/.openclaw/openclaw.json
  • WindowsC:\Users\你的用户名\.openclaw\openclaw.json
    里面的代码大概长这样:
{
  "models": {
    "providers": {
      "这里写提供商名字": {
        "baseUrl": "API链接地址",
        "apiKey": "你的那一串Key",
        "api": "openai-completions",
        "models": [
          {
            "id": "模型在后台的名字",
            "name": "你想在界面上看到的名字",
            "contextWindow": 上下文长度,
            "maxTokens": 单次吐字上限
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "主力模型",
        "fallback": "备用模型"
      }
    }
  }
}

简单解释下逻辑

1.3 哪三类模型能接?
类型 课代表 怎么接 贵不贵
云端商用 腾讯元宝、百度、智谱、DeepSeek 拿Key填上去 慢慢扣费或有免费量
云端白嫖版 元宝免费接口、豆包赠送额度 拿Key填上去 零成本
本地自建 Ollama、LM Studio 连本地地址 费电费显卡,不要钱
1.4 模型怎么切?

你有三种办法,看你哪个顺手:

  • 网页版直接选:右上角点一下下拉菜单,最直观。
  • 命令行操作openclaw models set 厂商/模型名
  • 聊天时切:直接在对话框打 /model 模型名
    几个常用的命令
# 看看现在有哪些模型
openclaw models list
# 确认当前在用哪个
openclaw models current
# 换成元宝的混元
openclaw models set yuanbao/hunyuan-turbo

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第二章:云端模型怎么配?(主流推荐)

2.1 腾讯元宝(中文场景很香)

元宝就是腾讯自家的混元,现在为了拉用户,免费额度给得挺慷慨的。
第一步:领Key
去腾讯云官网找“元宝大模型”,在API密钥管理里建一个,把那一串 sk-xxx 记下来。
第二步:改配置文件
打开 openclaw.json,把元宝的信息填进去:

{
  "models": {
    "providers": {
      "yuanbao": {
        "baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
        "apiKey": "你的Key贴这儿",
        "api": "openai-completions",
        "models": [
          {
            "id": "hunyuan-turbo",
            "name": "混元强力版",
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "yuanbao/hunyuan-turbo"
      }
    }
  }
}

第三步:重启重启
执行 openclaw gateway restart

2.2 豆包(创意和多模态挺好)

字节家的模型,去火山引擎领Key,配置跟元宝差不多,换个地址和Key就行。

2.3 DeepSeek(程序员最爱)

逻辑很硬,价格也便宜。直接去DeepSeek官网申请Key,然后把 baseUrl 设成 https://api.deepseek.com/v1

2.4 智谱 GLM

去智谱官网,它们家的免费额度给得也多,中文表现数一数二。

2.5 百度千帆

用的是文心一言系列,去百度云领了Key贴上去。

2.6 想接啥就接啥(自定义)

只要是支持OpenAI协议的,不管是公司内部的还是那种聚合平台,都能按上面的格式加进去。比如你想接硅基流动,就把它的 baseUrl 填对就成。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第三章:本地部署,彻底白嫖加隐私保护

如果你电脑配置够好,或者不想让数据传到云端,那就本地跑模型。

3.1 方案一:用Ollama(最省心)

1. 安装:去Ollama官网下个装上。
2. 跑模型:命令行打 ollama run qwen2.5:7b
3. 填配置:地址设为 http://127.0.0.1:11434/v1,Key随便填个 no-key 就能用。

3.2 方案二:用LM Studio(有界面,更直观)

不喜欢敲命令就用这个。下好了在里面搜模型下载,然后开启“Server”,地址默认是 http://localhost:1234/v1

3.3 硬件到底行不行?

想跑得顺,显存是关键。2G-4G能跑迷你模型,8G显存跑7B模型挺丝滑,想跑30B以上的,那你得有4090这种级别的卡了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第四章:高级玩儿法——双保险配置

你可以设个本地模型当主力,省钱还快;再设个云端的大模型当备用。万一本地显存爆了或者遇到太难的问题,OpenClaw会自动找云端大佬帮忙。
用环境变量存Key会更安全。你在系统里设个变量名,配置里写 ${变量名},省得以后不小心把Key泄露给别人。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第五章:常用命令总结

第六章:踩坑指南

Q:换了模型连不上?
A:先看Key对不对,别多空格。再看账号里还有钱不。最后别忘了重启网关。
Q:本地模型怎么这么卡?
A:多半是显存不够或者在用CPU跑。换个小点的模型试试,或者调低上下文长度。
Q:云端和本地选哪个?
A:简单粗暴点:想要最聪明且省事,选云端;想要免费且隐私,选本地。两个都配上最完美。

结语:选对大脑,干活不累

OpenClaw厉害就厉害在它“不挑食”。你可以根据自己的兜里有多少钱、电脑有多强,随意给它换脑子。动手折腾下吧,给你的“龙虾”换个好脑筋,让它帮你处理文件、写代码时更有灵性!
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐