龙虾本地部署小白指南
·
OpenClaw本地部署完整指南(小白友好版)
以下是针对零基础用户的OpenClaw本地部署详细教程,涵盖Windows、macOS和Linux系统,确保即使没有技术背景的用户也能顺利完成部署。
一、环境准备与系统要求
| 系统平台 | 最低要求 | 推荐配置 |
|---|---|---|
| Windows | Windows 10/11, 8GB RAM | Windows 11, 16GB RAM, WSL2支持 |
| macOS | macOS 12+, 8GB RAM | macOS 14+, 16GB RAM, M1/M2芯片 |
| Linux | Ubuntu 20.04+, 8GB RAM | Ubuntu 22.04+, 16GB RAM |
基础软件依赖:
- Node.js ≥ v22(必须)
- Python 3.8+(部分功能需要)
- Git(用于代码拉取)
- CMake 3.31.11+(编译依赖)
二、一键部署流程
Windows系统部署
# 1. 以管理员身份打开PowerShell
# 2. 执行一键安装命令
irm https://raw.githubusercontent.com/open-claw/openclaw/main/scripts/install.ps1 | iex
安装完成后会自动启动配置向导,按照提示完成以下步骤:
- 输入大模型API Key(如阿里云百炼、OpenAI等)
- 配置飞书机器人参数(App ID/Secret)
- 设置服务端口(默认8080)
macOS/Linux系统部署
# 1. 打开终端
# 2. 执行一键安装脚本
curl -fsSL https://raw.githubusercontent.com/open-claw/openclaw/main/scripts/install.sh | bash
三、详细配置步骤
1. 大模型接入配置
首次运行后会进入onboard配置向导,需要准备以下信息:
# openclaw.json 配置文件示例
{
"model": {
"provider": "qwen", # 支持qwen/openai/minimax等
"api_key": "your_api_key_here",
"base_url": "https://dashscope.aliyuncs.com/compatible-mode/v1"
},
"server": {
"port": 8080,
"host": "0.0.0.0"
}
}
获取API Key的方法:
- 阿里云百炼:登录阿里云控制台 → 百炼服务 → 创建API Key
- OpenAI:访问platform.openai.com → API Keys → Create new secret key
- 其他模型平台类似操作
2. 飞书机器人集成
// 飞书应用配置示例
const feishuConfig = {
app_id: "cli_xxxxxxxxxxxx",
app_secret: "xxxxxxxxxxxxxxxxxxxxxxxx",
encrypt_key: "xxxxxxxxxxxxxxxx",
verification_token: "xxxxxxxxxxxxxxxx"
};
配置步骤:
- 访问飞书开放平台
- 创建企业自建应用 → 获取App ID和App Secret
- 权限配置:添加
im:message相关权限 - 事件订阅:启用
im.message.receive_v1事件 - 发布应用并添加到群聊
3. 服务启动与验证
# 启动OpenClaw服务
npm start
# 或使用PM2持久化运行
pm2 start openclaw --name "openclaw-bot"
访问管理界面:http://localhost:8080/admin 验证服务状态。
四、常见问题排查
| 问题现象 | 可能原因 | 解决方案 |
|---|---|---|
| 安装失败 | Node.js版本过低 | 升级Node.js到v22+ |
| 端口占用 | 8080端口被占用 | 修改config.json中的端口号 |
| API连接失败 | API Key错误或网络问题 | 检查API Key有效性及网络连接 |
| 飞书消息无响应 | 事件订阅未配置 | 重新检查飞书事件订阅配置 |
网络连接测试:
# 测试API连通性
curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model":"qwen-turbo","messages":[{"role":"user","content":"Hello"}]}'
五、进阶配置选项
使用本地模型(Ollama)
如果希望使用本地运行的模型而非云端API:
# 安装Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# 拉取模型(以Qwen为例)
ollama pull qwen2.5:7b
# 配置OpenClaw使用本地Ollama
{
"model": {
"provider": "ollama",
"base_url": "http://localhost:11434",
"model": "qwen2.5:7b"
}
}
Docker部署方式
对于熟悉Docker的用户:
# Docker部署命令
docker run -d \
--name openclaw \
-p 8080:8080 \
-v /path/to/config:/app/config \
openclaw/openclaw:latest
六、功能验证与测试
部署完成后,通过以下方式验证功能:
- Web界面测试:访问
http://localhost:8080发送测试消息 - 飞书群聊测试:在配置好的飞书群中@机器人发送消息
- API接口测试:
curl -X POST http://localhost:8080/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{"messages":[{"role":"user","content":"你好"}]}'
七、维护与更新
日常维护:
# 查看服务状态
pm2 status openclaw-bot
# 查看日志
pm2 logs openclaw-bot
# 重启服务
pm2 restart openclaw-bot
版本更新:
# 拉取最新代码
git pull origin main
# 重新安装依赖
npm install
# 重启服务
pm2 restart openclaw-bot
本教程涵盖了OpenClaw从零开始的完整部署流程,按照上述步骤操作,即使是技术小白也能成功部署属于自己的AI助手。如果在任何步骤遇到问题,建议参考对应步骤的详细文档或社区支持。
参考来源
- 本地部署中文OpenClaw 教程
- Windows部署OpenClaw+对接本地vLLM大模型:超详细实操教程
- 本地部署中文OpenClaw 教程
- OpenClaw本地部署傻瓜式教程
- 【最新教程】OpenClaw(原Clawdbot/Moltbot)本地部署快速指南
- 小龙虾(OpenClaw)本地安装部署教程
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)