OpenClaw本地部署全攻略
OpenClaw 本地部署方法及配置指南(全平台、多模型、生产就绪)
OpenClaw 是一款开源的 AI 智能体(Agent)交互网关框架,支持将大语言模型能力封装为可编排、可扩展、可审计的系统级服务。其核心价值在于解耦模型推理层与业务逻辑层,通过标准化 Channel(如飞书、Web UI、CLI、TUI)、统一 Gateway 路由与权限控制,实现私有化 AI 工作流闭环。本文基于最新实测资料 ,系统梳理 Windows/macOS/Linux 全平台本地部署路径,覆盖 CLI、Docker、Ollama 集成三大主流模式,并给出关键配置项、避坑清单与验证脚本。
一、问题解构:OpenClaw 本地部署的核心挑战
| 维度 | 关键难点 | 根源说明 | 参考依据 |
|---|---|---|---|
| 环境依赖 | Node.js 版本敏感(需 ≥v20.12)、Python ≥3.9、Git、curl | OpenClaw CLI 基于 TypeScript 编译,Ollama/vLLM 后端依赖特定 ABI 兼容性 | |
| 模型对接 | 上下文窗口硬性要求 ≥16K tokens;仅支持 GGUF/PyTorch 格式;API 协议需兼容 OpenAI-style | OpenClaw 默认调用 /v1/chat/completions 接口,若模型服务不支持 streaming 或 tool calling 将触发 ` |
|
| 500 Internal Error` | |||
| 网络与安全 | 默认监听 ` | ||
| 127.0.0.1:18789`,但 Web UI 需跨域访问;Token 认证未启用时存在未授权风险 | gateway.yaml 中 cors.origin 和 auth.enabled 为关键开关,新手常忽略 |
||
| 配置耦合 | gateway.yaml、.env、clawhub.yaml 三者职责重叠,修改一处易引发健康检查失败 |
例如:model.provider 写错导致 claw check 返回 Provider not found,但错误日志无具体 provider 名称提示 |
二、方案推演:三种主流本地部署路径对比
| 方案 | 适用场景 | 优势 | 劣势 | 推荐指数 |
|---|---|---|---|---|
| CLI 原生部署(Node.js) | 快速验证、开发调试、轻量级单机使用 | 启动快(npm create openclaw@latest),配置透明,便于断点调试 |
依赖全局 Node 环境,Windows 权限问题频发(如 EACCES) |
⭐⭐⭐⭐ |
| Docker Compose | 生产预演、多服务协同(如 vLLM + Redis + OpenClaw) | 隔离性强,一键启停(docker-compose up -d),支持 healthcheck 自动重试 |
镜像体积大(>2GB),需手动映射 gateway.yaml 和模型路径 |
⭐⭐⭐⭐⭐ |
| Ollama 集成部署 | 本地无 GPU 运行 Qwen2.5-7B/DeepSeek-Coder-6.7B 等中型模型 | ollama run qwen2.5:7b 即可启动,OpenClaw 通过 http://localhost:11434/v1 对接,零编译 |
Ollama 默认上下文仅 4K,需 OLLAMA_CONTEXT_LENGTH=32768 重编译或使用 --num_ctx 32768 启动参数 |
⭐⭐⭐⭐ |
✅ 结论:开发者首选 CLI + Ollama 组合(兼顾速度与模型自由度);企业私有化推荐 Docker + vLLM(高吞吐、支持 PagedAttention)。
三、实操指南:CLI + Ollama 本地部署(Windows/macOS/Linux 通用)
步骤 1:环境准备(以 Ubuntu 22.04 为例)
# 安装 NVM 与 Node.js 22(避免 v23 的 experimental fetch bug)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash
source ~/.bashrc
nvm install 22.14.0
nvm use 22.14.0
# 安装 Ollama(支持 Linux/macOS/WSL)
curl -fsSL https://ollama.com/install.sh | sh
# 验证
node -v # v22.14.0
ollama --version # 0.4.5+
步骤 2:部署 OpenClaw 并配置 Ollama 模型
# 创建工作区并初始化
mkdir ~/openclaw-demo && cd ~/openclaw-demo
npm create openclaw@latest
# 启动 Ollama(扩上下文至 32K)
OLLAMA_CONTEXT_LENGTH=32768 ollama run qwen2.5:7b
# 修改 gateway.yaml(关键配置)
cat > gateway.yaml << 'EOF'
server:
host: "127.0.0.1"
port: 18789
cors:
origin: ["http://localhost:3000", "http://127.0.0.1:3000"] # Web UI 允许来源
model:
provider: "ollama" # 必须小写!
base_url: "http://localhost:11434/v1"
model: "qwen2.5:7b"
max_tokens: 4096
auth:
enabled: false # 开发阶段关闭认证
EOF
步骤 3:启动服务并验证
# 启动 OpenClaw(自动加载 gateway.yaml)
npx openclaw@latest start
# 在新终端验证 API(模拟 Web UI 请求)
curl -X POST "http://127.0.0.1:18789/v1/chat/completions" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen2.5:7b",
"messages": [{"role": "user", "content": "你好,请用中文介绍你自己"}],
"stream": false
}' | jq '.choices[0].message.content'
# 预期输出:包含 "OpenClaw" 和 "AI智能体网关" 的中文响应
💡 避坑提示:若返回
{"error":"Provider not found"},请检查gateway.yaml中model.provider是否拼写为ollama(非Ollama或OLLAMA)。
四、Web UI 访问与飞书集成(可选增强)
OpenClaw 自带 React Web UI(默认 http://localhost:3000),需额外启动:
# 在项目根目录执行(需已安装 pnpm)
pnpm install && pnpm dev
飞书机器人接入需在 gateway.yaml 中添加:
channels:
feishu:
enabled: true
app_id: "cli_xxx" # 飞书开放平台创建的应用 ID
app_secret: "xxx" # 对应密钥
verification_token: "xxx" # 事件订阅校验 Token
随后在飞书管理后台配置「事件订阅」并启用 im:message.receive_v1 权限 。
五、健康检查与故障排查
运行以下命令进行全链路自检:
npx openclaw@latest check
典型输出应包含:
✅ Model Provider: ollama (http://localhost:11434/v1)
✅ HTTP Server: listening on http://127.0.0.1:18789
✅ Health Check: passed (latency < 2s)
若失败,请按顺序检查:
ollama list是否显示目标模型;curl http://localhost:11434/health是否返回{"status":"ok"};netstat -tuln | grep 18789确认端口未被占用。
综上,OpenClaw 本地部署本质是 “环境对齐 → 配置收敛 → 协议适配” 的三段式工程。只要严格遵循 Node.js/Ollama 版本约束、正确填写 gateway.yaml 中的 provider 字段与 URL、并启用 CORS,95% 的部署问题均可规避 。
参考来源
- OpenClaw极速本地部署指南(小白纯子教学版)
- 【AI智能体】——OpenClaw(龙虾)深度研究分享(三)OpenClaw+Ollama本地模型定制
- 【亲测有效】 OpenClaw 本地部署快速指南
- OpenClaw Docker部署与配置完整指南
- 2026年华为云OpenClaw(Clawdbot)小白7分钟搭建及使用喂饭级教程
- openclaw新手部署详细教程——适用于ubuntu22.04
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
所有评论(0)