前言

在 AI 大模型遍地开花的今天,越来越多的开发者希望将 ChatGPT、Claude、DeepSeek 等 AI 能力接入到自己的 Telegram、微信、Discord、飞书等即时通讯平台中。但每个平台的 API 不同、每个模型的接口不同,重复造轮子的工作量巨大。

本文介绍一个开源项目 OpenClaw(龙虾)——一个 AI 消息网关,支持 25+ 消息频道和 30+ AI 模型。通过 Docker 部署,5 分钟内即可完成从零到可用的全流程。

一、OpenClaw 是什么

OpenClaw 是一个开源的自托管 AI 消息网关,核心功能:

  • 统一对接 25+ 消息频道:Telegram、微信、Discord、QQ、飞书、Slack、WhatsApp、iMessage、Microsoft Teams 等
  • 统一对接 30+ AI 模型:ChatGPT、Claude、DeepSeek、Ollama 本地模型等
  • 支持智能故障转移:主模型不可用时自动切换备用模型
  • 自动化能力:Hooks、定时任务、Webhooks
  • MIT 开源协议:免费使用,商用友好

项目地址:https://github.com/openclaw/openclaw
中文文档:https://longxia.best

二、环境准备

2.1 硬件要求

  • 如果使用云端 AI 模型(ChatGPT、Claude、DeepSeek 等),对硬件几乎没有要求,1 核 1G 的 VPS 也能跑
  • 如果使用 Ollama 本地模型,建议 NVIDIA GPU 12GB+ 显存,或 Mac M 系列 16GB+ 内存

2.2 软件要求

  • Docker 20.10 及以上
  • Docker Compose 2.0 及以上(推荐)

三、Docker Compose 部署(推荐)

3.1 克隆仓库直接启动

git clone https://github.com/openclaw/openclaw.git
cd openclaw
docker-compose up -d

3.2 手动创建 docker-compose.yml

如果只想拉镜像不想克隆整个仓库,可以手动创建配置文件:

services:
  openclaw:
    image: ghcr.io/openclaw-ai/openclaw:latest
    container_name: openclaw
    restart: unless-stopped
    ports:
      - "18789:18789"   # Gateway WebSocket 核心通信端口
      - "3000:3000"     # Web UI 控制台
    volumes:
      - ~/.openclaw:/root/.openclaw      # 配置文件、API Key、会话状态
      - ~/openclaw/workspace:/workspace  # 项目文件与技能
    environment:
      - NODE_ENV=production

然后执行:

docker-compose up -d

四、Docker Run 一行命令部署

不使用 Docker Compose 的情况下,也可以直接运行:

docker run -d --name openclaw --restart unless-stopped \
  -p 18789:18789 -p 3000:3000 \
  -v ~/.openclaw:/root/.openclaw \
  -v ~/openclaw/workspace:/workspace \
  ghcr.io/openclaw-ai/openclaw:latest

五、端口与卷挂载说明

5.1 端口映射

端口 用途 说明
18789 Gateway WebSocket 频道和客户端连接的核心通信端口
3000 Web UI 浏览器控制台,配置和会话监控

5.2 卷挂载

宿主机路径 容器路径 说明
~/.openclaw /root/.openclaw 配置文件、API Key、会话状态
~/openclaw/workspace /workspace 项目文件和项目级技能

六、Docker 镜像版本选择

镜像标签 大小 适用场景
latest ~500MB 标准版,包含全部功能
slim ~200MB 轻量版,不含浏览器/媒体工具
sandbox ~600MB 隔离技能执行环境
sandbox-browser ~1.2GB Sandbox + 内置 Chromium,浏览器自动化

镜像同时支持 linux/amd64linux/arm64 架构。

七、部署验证

容器启动后,访问以下地址:

  • Web 控制台http://localhost:3000/
  • WebSocket 端点ws://localhost:18789/

打开 Web 控制台后,按照引导完成初始化配置:

  1. 选择 AI 模型供应商(Claude / ChatGPT / DeepSeek / Ollama)
  2. 填入对应的 API Key
  3. 连接消息频道(以 Telegram 为例,填入 BotFather 给的 Token 即可)

八、连接 Telegram Bot 示例

  1. 在 Telegram 中搜索 @BotFather,发送 /newbot 创建新 Bot
  2. 按提示设置 Bot 名称,获取 Bot Token
  3. 在 OpenClaw Web 控制台中添加 Telegram 频道,填入 Token
  4. 向你的 Bot 发送一条消息,验证 AI 回复是否正常

九、AI 模型配置建议

场景 推荐模型 说明
新手入门 Claude / GPT-4o 稳定性好,响应速度快
低成本使用 DeepSeek 充值 10 元可以使用很长时间
隐私敏感 Ollama 本地模型 完全免费,数据不出本机

可以同时配置多个模型供应商,设置优先级和 failover 策略。

十、常用运维命令

# 查看实时日志
docker compose logs -f openclaw

# 更新到最新版本
docker compose pull
docker compose up -d

# 停止服务
docker compose down

# 查看容器状态
docker ps | grep openclaw

总结

OpenClaw 提供了一种统一的方式来管理多平台 AI 机器人。核心优势在于:

  1. 频道覆盖广:25+ 消息平台开箱即用
  2. 模型选择多:30+ AI 模型灵活切换
  3. 部署简单:Docker 一行命令
  4. 数据自主:自托管,MIT 开源

如果你正在寻找一个统一管理 AI Bot 的方案,OpenClaw 是一个值得尝试的选择。

项目官网:https://longxia.best
GitHub:https://github.com/openclaw/openclaw


如果本文对你有帮助,欢迎点赞、收藏、关注博主,后续会持续分享 AI 自部署和开源项目实战教程。

关注公众号「骄阳女孩」获取更多原创内容。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐