🦞 OpenClaw-CN 本地部署完全攻略

根据你从零开始的完整踩坑经历,我整理出了这份保姆级安装攻略。按顺序执行,就能把“龙虾”跑起来,接上飞书,用本地模型免费聊天。


📦 第一阶段:基础环境准备

1.1 安装 Node.js(必须 ≥ 18)

powershell

# 访问 https://nodejs.org 下载 LTS 版本(如 v20.11.1)
# 安装时务必勾选 "Add to PATH"

验证安装:

powershell

node --version  # 应显示 v18+
npm --version   # 应显示 v8+

1.2 配置 npm 国内镜像(加速下载)

powershell

npm config set registry https://registry.npmmirror.com

🚀 第二阶段:安装 OpenClaw-CN

2.1 全局安装

powershell

npm install -g openclaw-cn@latest

2.2 验证安装

powershell

openclaw-cn --version
# 应显示 0.1.7 或更高

🧠 第三阶段:安装本地模型(Ollama)

3.1 下载并安装 Ollama

访问 ollama.com 下载 Windows 版本,默认安装即可。

3.2 修改模型存储路径(可选,避免占满 C 盘)

powershell

# 1. 创建目标文件夹,如 D:\GD\Ollama
# 2. 设置环境变量
[System.Environment]::SetEnvironmentVariable('OLLAMA_MODELS', 'D:\GD\Ollama', 'User')
# 3. 重启电脑

3.3 下载 Qwen 2.5 3B 模型(支持工具调用)

powershell

# 启动 Ollama(保持窗口运行)
ollama serve

# 新开一个 PowerShell,下载模型
ollama pull qwen2.5:3b

⚠️ 注意qwen2.5:4b 不存在!正确版本是 0.5b1.5b3b7b 等。3B 版本是性能和速度的平衡点

验证模型:

powershell

ollama list
# 应看到 qwen2.5:3b

⚙️ 第四阶段:配置 OpenClaw

4.1 运行初始化向导

powershell

openclaw-cn onboard

按提示选择:

  • 安全警告Yes

  • 模式QuickStart

  • Model/auth provider:选 Custom Provider(因为要用本地 Ollama)

  • API Base URLhttp://127.0.0.1:11434/v1

  • API Key:随便输,如 ollama-local

  • Endpoint compatibilityOpenAI-compatible

  • Model IDqwen2.5:3b

  • 后续配置:全选 No 或 Skip

4.2 手动修改配置文件(关键!)

OpenClaw-CN 0.1.7 的向导可能不会自动设置默认模型,需要手动改配置。

powershell

# 停止网关
openclaw-cn gateway stop

# 用记事本打开配置文件
notepad C:\Users\Administrator\.openclaw\openclaw.json

确保配置文件包含以下内容(直接复制替换,记得把飞书的 appId 和 appSecret 换成你自己的):

json

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen2.5:3b",
            "name": "qwen2.5:3b",
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 4096
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen2.5:3b"
      },
      "models": {
        "ollama/qwen2.5:3b": {
          "alias": "qwen2.5:3b"
        }
      },
      "workspace": "C:\\Users\\Administrator\\.openclaw\\workspace",
      "compaction": {
        "mode": "safeguard"
      }
    }
  },
  "channels": {
    "feishu": {
      "accounts": {
        "default": {
          "appId": "你的_飞书_App_ID",
          "appSecret": "你的_飞书_App_Secret",
          "domain": "feishu",
          "enabled": true
        }
      }
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "自动生成,不用管"
    }
  }
}

关键检查点

  • ✅ models.providers.ollama 存在且模型是 qwen2.5:3b

  • ✅ agents.defaults.model.primary 是 ollama/qwen2.5:3b

  • ✅ channels.feishu 下没有 "enabled": false 这一行(如果有就删掉)

  • ✅ 飞书的 appId 和 appSecret 正确

4.3 重启网关

powershell

openclaw-cn gateway

看到 agent model: ollama/qwen2.5:3b 就说明配置生效了。


💬 第五阶段:配置飞书机器人

5.1 飞书开放平台配置

  1. 登录 飞书开发者后台

  2. 创建企业自建应用,取名如“OpenClaw助手”

  3. 获取 App ID 和 App Secret

  4. 添加机器人能力

  5. 添加权限:

    • im:message

    • im:chat:read

    • im:message:send_as_bot

    • contact:contact.base:readonly

  6. 事件订阅 配置:添加 im.message.receive_v1

  7. 订阅方式 选择:长连接(WebSocket)(重要!不需要配置回调地址)

  8. 创建版本并发布应用

5.2 在 OpenClaw 中配对飞书

powershell

# 1. 启动网关(如果没启动)
openclaw-cn gateway

# 2. 在飞书客户端搜索你的机器人,发送任意消息(如“你好”)
# 3. 机器人会回复一个配对码,如 PAIR-8XJX34AV

# 4. 在命令行批准配对
openclaw-cn pairing approve feishu 你拿到的配对码
# 例如:openclaw-cn pairing approve feishu 12JX34AV

5.3 测试

在飞书群里@机器人或私聊发送:

text

你好

应该能收到正常回复了!


🧹 第六阶段:日常维护

6.1 常用命令

操作 命令
启动网关 openclaw-cn gateway
停止网关 openclaw-cn gateway stop
查看模型列表 openclaw-cn models list
查看飞书通道 openclaw-cn channels list
查看实时日志 openclaw-cn logs --follow
创建新会话 /session new(在飞书里发送)

6.2 如果觉得慢

  • 换小模型ollama pull qwen2.5:1.5b(更快,略降智能)

  • 限制上下文:创建 Modelfile 设置 num_ctx 4096

  • 定期新会话:在飞书发 /session new

6.3 如果飞书没反应

  1. 检查飞书通道是否启用:openclaw-cn channels list 应显示“已启用”

  2. 检查网关日志:openclaw-cn logs --follow,看有没有报错

  3. 重新配对:先禁用再启用飞书通道


🏆 最终成果

项目 状态
本地模型 ✅ Qwen 2.5 3B(免费、支持工具调用)
飞书聊天 ✅ 可@机器人对话
Web 界面 ✅ http://127.0.0.1:18789
费用 💰 0 元(完全本地运行)

一路踩坑过来,恭喜你拥有了自己的“龙虾”智能助手!以后可以在飞书里随时和它聊天了~

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐