OpenClaw本地部署完整指南(小白友好版)

以下是针对零基础用户的OpenClaw本地部署详细教程,涵盖Windows、macOS和Linux系统,确保即使没有技术背景的用户也能顺利完成部署。

一、环境准备与系统要求

系统平台 最低要求 推荐配置
Windows Windows 10/11, 8GB RAM Windows 11, 16GB RAM, WSL2支持
macOS macOS 12+, 8GB RAM macOS 14+, 16GB RAM, M1/M2芯片
Linux Ubuntu 20.04+, 8GB RAM Ubuntu 22.04+, 16GB RAM

基础软件依赖

  • Node.js ≥ v22(必须)
  • Python 3.8+(部分功能需要)
  • Git(用于代码拉取)
  • CMake 3.31.11+(编译依赖)

二、一键部署流程

Windows系统部署

# 1. 以管理员身份打开PowerShell
# 2. 执行一键安装命令
irm https://raw.githubusercontent.com/open-claw/openclaw/main/scripts/install.ps1 | iex

安装完成后会自动启动配置向导,按照提示完成以下步骤:

  1. 输入大模型API Key(如阿里云百炼、OpenAI等)
  2. 配置飞书机器人参数(App ID/Secret)
  3. 设置服务端口(默认8080)

macOS/Linux系统部署

# 1. 打开终端
# 2. 执行一键安装脚本
curl -fsSL https://raw.githubusercontent.com/open-claw/openclaw/main/scripts/install.sh | bash

三、详细配置步骤

1. 大模型接入配置

首次运行后会进入onboard配置向导,需要准备以下信息:

# openclaw.json 配置文件示例
{
  "model": {
    "provider": "qwen",  # 支持qwen/openai/minimax等
    "api_key": "your_api_key_here",
    "base_url": "https://dashscope.aliyuncs.com/compatible-mode/v1"
  },
  "server": {
    "port": 8080,
    "host": "0.0.0.0"
  }
}

获取API Key的方法

  • 阿里云百炼:登录阿里云控制台 → 百炼服务 → 创建API Key
  • OpenAI:访问platform.openai.com → API Keys → Create new secret key
  • 其他模型平台类似操作

2. 飞书机器人集成

// 飞书应用配置示例
const feishuConfig = {
  app_id: "cli_xxxxxxxxxxxx",
  app_secret: "xxxxxxxxxxxxxxxxxxxxxxxx",
  encrypt_key: "xxxxxxxxxxxxxxxx",
  verification_token: "xxxxxxxxxxxxxxxx"
};

配置步骤

  1. 访问飞书开放平台
  2. 创建企业自建应用 → 获取App ID和App Secret
  3. 权限配置:添加im:message相关权限
  4. 事件订阅:启用im.message.receive_v1事件
  5. 发布应用并添加到群聊

3. 服务启动与验证

# 启动OpenClaw服务
npm start
# 或使用PM2持久化运行
pm2 start openclaw --name "openclaw-bot"

访问管理界面:http://localhost:8080/admin 验证服务状态。

四、常见问题排查

问题现象 可能原因 解决方案
安装失败 Node.js版本过低 升级Node.js到v22+
端口占用 8080端口被占用 修改config.json中的端口号
API连接失败 API Key错误或网络问题 检查API Key有效性及网络连接
飞书消息无响应 事件订阅未配置 重新检查飞书事件订阅配置

网络连接测试

# 测试API连通性
curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"model":"qwen-turbo","messages":[{"role":"user","content":"Hello"}]}'

五、进阶配置选项

使用本地模型(Ollama)

如果希望使用本地运行的模型而非云端API:

# 安装Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# 拉取模型(以Qwen为例)
ollama pull qwen2.5:7b

# 配置OpenClaw使用本地Ollama
{
  "model": {
    "provider": "ollama",
    "base_url": "http://localhost:11434",
    "model": "qwen2.5:7b"
  }
}

Docker部署方式

对于熟悉Docker的用户:

# Docker部署命令
docker run -d \
  --name openclaw \
  -p 8080:8080 \
  -v /path/to/config:/app/config \
  openclaw/openclaw:latest

六、功能验证与测试

部署完成后,通过以下方式验证功能:

  1. Web界面测试:访问http://localhost:8080发送测试消息
  2. 飞书群聊测试:在配置好的飞书群中@机器人发送消息
  3. API接口测试
curl -X POST http://localhost:8080/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{"messages":[{"role":"user","content":"你好"}]}'

七、维护与更新

日常维护

# 查看服务状态
pm2 status openclaw-bot

# 查看日志
pm2 logs openclaw-bot

# 重启服务
pm2 restart openclaw-bot

版本更新

# 拉取最新代码
git pull origin main

# 重新安装依赖
npm install

# 重启服务
pm2 restart openclaw-bot

本教程涵盖了OpenClaw从零开始的完整部署流程,按照上述步骤操作,即使是技术小白也能成功部署属于自己的AI助手。如果在任何步骤遇到问题,建议参考对应步骤的详细文档或社区支持。


参考来源

 

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐