Docker 部署开源 AI 消息网关 OpenClaw 教程:5 分钟接入 Telegram/微信/Discord 等 25+ 平台对接 ChatGPT/DeepSeek/Claude
前言
在 AI 大模型遍地开花的今天,越来越多的开发者希望将 ChatGPT、Claude、DeepSeek 等 AI 能力接入到自己的 Telegram、微信、Discord、飞书等即时通讯平台中。但每个平台的 API 不同、每个模型的接口不同,重复造轮子的工作量巨大。
本文介绍一个开源项目 OpenClaw(龙虾)——一个 AI 消息网关,支持 25+ 消息频道和 30+ AI 模型。通过 Docker 部署,5 分钟内即可完成从零到可用的全流程。
一、OpenClaw 是什么
OpenClaw 是一个开源的自托管 AI 消息网关,核心功能:
- 统一对接 25+ 消息频道:Telegram、微信、Discord、QQ、飞书、Slack、WhatsApp、iMessage、Microsoft Teams 等
- 统一对接 30+ AI 模型:ChatGPT、Claude、DeepSeek、Ollama 本地模型等
- 支持智能故障转移:主模型不可用时自动切换备用模型
- 自动化能力:Hooks、定时任务、Webhooks
- MIT 开源协议:免费使用,商用友好
项目地址:https://github.com/openclaw/openclaw
中文文档:https://longxia.best
二、环境准备
2.1 硬件要求
- 如果使用云端 AI 模型(ChatGPT、Claude、DeepSeek 等),对硬件几乎没有要求,1 核 1G 的 VPS 也能跑
- 如果使用 Ollama 本地模型,建议 NVIDIA GPU 12GB+ 显存,或 Mac M 系列 16GB+ 内存
2.2 软件要求
- Docker 20.10 及以上
- Docker Compose 2.0 及以上(推荐)
三、Docker Compose 部署(推荐)
3.1 克隆仓库直接启动
git clone https://github.com/openclaw/openclaw.git
cd openclaw
docker-compose up -d
3.2 手动创建 docker-compose.yml
如果只想拉镜像不想克隆整个仓库,可以手动创建配置文件:
services:
openclaw:
image: ghcr.io/openclaw-ai/openclaw:latest
container_name: openclaw
restart: unless-stopped
ports:
- "18789:18789" # Gateway WebSocket 核心通信端口
- "3000:3000" # Web UI 控制台
volumes:
- ~/.openclaw:/root/.openclaw # 配置文件、API Key、会话状态
- ~/openclaw/workspace:/workspace # 项目文件与技能
environment:
- NODE_ENV=production
然后执行:
docker-compose up -d
四、Docker Run 一行命令部署
不使用 Docker Compose 的情况下,也可以直接运行:
docker run -d --name openclaw --restart unless-stopped \
-p 18789:18789 -p 3000:3000 \
-v ~/.openclaw:/root/.openclaw \
-v ~/openclaw/workspace:/workspace \
ghcr.io/openclaw-ai/openclaw:latest
五、端口与卷挂载说明
5.1 端口映射
| 端口 | 用途 | 说明 |
|---|---|---|
| 18789 | Gateway WebSocket | 频道和客户端连接的核心通信端口 |
| 3000 | Web UI | 浏览器控制台,配置和会话监控 |
5.2 卷挂载
| 宿主机路径 | 容器路径 | 说明 |
|---|---|---|
~/.openclaw |
/root/.openclaw |
配置文件、API Key、会话状态 |
~/openclaw/workspace |
/workspace |
项目文件和项目级技能 |
六、Docker 镜像版本选择
| 镜像标签 | 大小 | 适用场景 |
|---|---|---|
latest |
~500MB | 标准版,包含全部功能 |
slim |
~200MB | 轻量版,不含浏览器/媒体工具 |
sandbox |
~600MB | 隔离技能执行环境 |
sandbox-browser |
~1.2GB | Sandbox + 内置 Chromium,浏览器自动化 |
镜像同时支持 linux/amd64 和 linux/arm64 架构。
七、部署验证
容器启动后,访问以下地址:
- Web 控制台:
http://localhost:3000/ - WebSocket 端点:
ws://localhost:18789/
打开 Web 控制台后,按照引导完成初始化配置:
- 选择 AI 模型供应商(Claude / ChatGPT / DeepSeek / Ollama)
- 填入对应的 API Key
- 连接消息频道(以 Telegram 为例,填入 BotFather 给的 Token 即可)
八、连接 Telegram Bot 示例
- 在 Telegram 中搜索
@BotFather,发送/newbot创建新 Bot - 按提示设置 Bot 名称,获取 Bot Token
- 在 OpenClaw Web 控制台中添加 Telegram 频道,填入 Token
- 向你的 Bot 发送一条消息,验证 AI 回复是否正常
九、AI 模型配置建议
| 场景 | 推荐模型 | 说明 |
|---|---|---|
| 新手入门 | Claude / GPT-4o | 稳定性好,响应速度快 |
| 低成本使用 | DeepSeek | 充值 10 元可以使用很长时间 |
| 隐私敏感 | Ollama 本地模型 | 完全免费,数据不出本机 |
可以同时配置多个模型供应商,设置优先级和 failover 策略。
十、常用运维命令
# 查看实时日志
docker compose logs -f openclaw
# 更新到最新版本
docker compose pull
docker compose up -d
# 停止服务
docker compose down
# 查看容器状态
docker ps | grep openclaw
总结
OpenClaw 提供了一种统一的方式来管理多平台 AI 机器人。核心优势在于:
- 频道覆盖广:25+ 消息平台开箱即用
- 模型选择多:30+ AI 模型灵活切换
- 部署简单:Docker 一行命令
- 数据自主:自托管,MIT 开源
如果你正在寻找一个统一管理 AI Bot 的方案,OpenClaw 是一个值得尝试的选择。
项目官网:https://longxia.best
GitHub:https://github.com/openclaw/openclaw
如果本文对你有帮助,欢迎点赞、收藏、关注博主,后续会持续分享 AI 自部署和开源项目实战教程。
关注公众号「骄阳女孩」获取更多原创内容。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)