一、OpenClaw基础

1、什么是OpenClaw

OpenClaw是一款开源、可本地私有化部署的、具备执行能力的AI Agent,前身为Clawdbot与Moltbot,核心是通过自然语言指令,实现流程化、重复性任务的自动化执行,能直接接管电脑,替人写邮件、处理文件、甚至完成简单的软件开发。

传统大模型以 “生成内容” 为核心,仅提供建议;OpenClaw 以 “任务执行” 为核心,通过 “意图解析 → 任务规划 → 工具调用 → 结果反馈” 的闭环,直接完成真实操作。是AI从“对话建议”走向“落地执行”的关键一步。

OpenClaw可以部署在个人电脑、云服务器等,通过用户熟悉的聊天软件交互,操作便捷自然;同时具备完整操作权限与超长记忆,成为真正专属于个人的AI助理(龙虾机器人)。

2、OpenClaw适合安装在哪里?

伴随着OpenClaw的爆火,Mac Mini也一举跃升为“理财产品”,最有震撼力的消息就是社区内有非常多的先行者声称购入了大量Mac Mini来运行。不过随着更多人了解到这个项目,也出现了另一种声音:超高权限下,它更适合运行在一个与个人主力电脑相互隔离的环境中,可以是一台旧电脑(MacOS系统目前支持的程度最好),也可以是一台云服务器(通常推荐Linux系统),目前OpenClaw对Linux操作系统同样支持程度较好,并且云端环境也与本地电脑强隔离,不会对保存在本地电脑的数据造成不良影响。

注意:OpenClaw官方社区目前也建议不要把OpenClaw部署在个人的主力电脑中,否则可能对本地电脑数据的安全造成影响。

推荐云端部署,在云服务器中部署OpenClaw的好处不仅在于提供与本地电脑安全隔离的运行环境,保护本地个人数据安全,同时还能实现服务7×24小时随时在线,让您随时随时可以与OpenClaw进行交互。

3、OpenClaw 能做什么

OpenClaw 拥有 “双眼和双手”,可直接操作电脑、浏览器、调用 API,完成各类真实任务。

(1)、系统级操作(强执行能力)

  • 文件管理:读写文件、整理文件夹、批量处理文档。

  • 终端执行:运行 Shell 命令、执行脚本、管理进程。

  • 设备监控:监控电脑电量、网络连接、系统状态。

  • 代码开发:本地写代码、调试、生成测试用例、管理项目依赖。

(2)、浏览器自动化

  • 控制 Chrome 浏览器,自动浏览网页、填写表单、提取数据。

  • 自动办理登机、查找预约、处理医疗报销等网络事务。

  • 配置 API 令牌、OAuth,对接云服务。

(3)、 办公自动化

  • 邮件处理:清理收件箱、发送邮件、自动回复。

  • 日程管理:管理日历、会议提醒、生成周报。

  • 文档处理:生成工作总结、会议纪要、格式转换。

  • 表格处理:自动处理 Excel、数据统计。

(4)、多渠道交互

  • 无需专用 App,通过 WhatsApp、Telegram、Discord、Slack、iMessage 等聊天软件即可控制。

  • 支持语音唤醒与对话(macOS、iOS、Android)。

(5)、持久记忆与规划

  • 记住你的偏好、历史任务,自动拆解复杂目标并分步执行。

  • 24 小时上下文持续,提供个性化服务。

(6)、 可扩展技能生态

  • 支持插件(Skills)扩展,社区已有数百种技能(办公、开发、生活等)。

  • 官方技能市场有 100 + 预置技能,支持用户自定义技能。

(7)、模型灵活适配

  • 支持 Claude、GPT 系列,也可通过 Ollama 接入本地模型。

  • 适配不同算力与隐私需求。

二、基于OpenClaw的应用架构

OpenClaw不是孤立存在的,它是作为连接底层能力与前端应用的中间枢纽。本质上是一个 AI Agent 调度中枢,通过解耦“应用端”和“模型端”,实现了业务逻辑的灵活配置。

1. 业务系统

这是整个架构的触达层,即用户直接进行交互的平台。

  • 功能: 提供交互界面,接收用户的自然语言指令,并将 OpenClaw 处理后的结果反馈给用户。

  • 图中示例:钉钉 (DingTalk)、微信 (WeChat)、飞书 :这些都是主流的办公与社交平台。

  • 含义: OpenClaw 并不局限于单一的 App,而是通过 API 或插件形式集成进现有的办公生态中,让用户在无需改变习惯的情况下使用 AI 能力。

2. OpenClaw/龙虾机器人

这是架构的核心控制层,也是图中最关键的红色方框部分。

  • 功能:

    • 中继与路由: 接收来自业务系统的请求,将其转化为模型可理解的提示词(Prompt)。

    • 业务 Skill(技能库): 这是 OpenClaw 的灵魂。它将复杂的业务逻辑拆解为一个个具体的“技能点”(Skill 1, Skill 2...)。

  • 含义: Skill 可以理解为封装好的功能模块,比如“自动报销”、“会议总结”或“查询库存”。

    • OpenClaw 负责识别用户的意图,并调用相应的 Skill,再配合 LLM 的推理能力来完成具体任务。它解决了通用大模型“不懂具体业务规则”的痛点。

3. LLM / 大语言模型 (The Intelligence Engine)

这是架构的智力层,负责理解、生成和决策。

  • 功能: 提供底层的自然语言处理能力,包括语义理解、逻辑推理、文本生成等。

  • 图中示例:

    • Qwen (通义千问)MiniMaxKimi:这些是目前国内主流的高性能大语言模型。

  • 含义: OpenClaw 采用了**模型无关(Model-agnostic)**的设计。这意味着用户可以根据成本、速度或任务复杂度,灵活切换不同的底层模型,而不需要重构整个业务系统。

4. 总结:OpenClaw的执行逻辑

  1. 输入: 用户在飞书/微信发送一句:“帮我查一下上个月的销售报表”。

  2. 处理: OpenClaw 接收到指令,通过 LLM 识别出意图是“查询数据”,随后调用对应的 业务Skill 去对接企业的后台数据库。

  3. 生成: LLM 将查询到的枯燥数据加工成易读的文字。

  4. 输出: 结果通过 OpenClaw 回传,显示在用户的聊天窗口中。

三、 OpenClaw 本地部署指南

本次安装我是基于本地的ollama来进行部署的,没有调用云端的大模型,因为云端大模型消耗的token是需要消费的

0、ollama安装

首先,我们需要下载一个Ollama的客户端,在官网提供了各种不同版本的Ollama,大家可以根据自己的需要下载。

注意:

Ollama默认安装目录是C盘的用户目录,如果不希望安装在C盘的话(其实C盘如果足够大放C盘也没事),就不能直接双击安装了。需要通过命令行安装

命令行安装方式如下:

在OllamaSetup.exe所在目录打开cmd命令行,然后命令如下:

.\OllamaSetup.exe /DIR=你要安装的目录位置

OK,安装完成后,还需要配置一个环境变量,更改Ollama下载和部署模型的位置。环境变量如下:

OLLAMA_MODELS=你想要保存模型的目录

ollama是一个模型管理工具和平台,它提供了很多国内外常见的模型,我们可以在其官网上搜索自己需要的模型:https://ollama.com/search

因为最近4月初,Google开源了一个大模型gemma4,可以进行本地部署。

Gemma 4 是 Google DeepMind 于 2026 年 4 月推出的新一代开源大语言模型系列。它与谷歌的闭源旗舰模型 Gemini 共享底层技术,主打“单位参数智能水平”的极致优化,旨在以更小的模型规模实现媲美甚至超越更大模型的性能。
🚀 核心亮点
极致开放的许可协议:Gemma 4 采用 Apache 2.0 许可证,这是一个极为宽松的协议,允许开发者自由地修改、分发和用于商业用途,极大地降低了技术使用和商业化的门槛。
卓越的性能表现:Gemma 4 在多个基准测试中表现惊人。例如,其 31B 版本在数学竞赛 AIME 2026 中的正确率从上代的 20.8% 飙升至 89.2%,并在 Arena AI 全球开放模型排行榜上位列第三,性能媲美参数规模大得多的模型。
强大的多模态能力:全系列模型均原生支持图像和视频输入,可进行光学字符识别(OCR)、图表理解等复杂任务。其中,面向移动端的轻量级模型还额外集成了音频处理能力,支持离线语音识别与翻译。
先进的推理与智能体功能:模型内置了可开关的“思考模式”(Chain-of-Thought),能显著提升数学、逻辑等复杂任务的表现。同时,它原生支持函数调用和结构化 JSON 输出,可以无缝对接外部工具与 API,构建自主智能体(Agent)。
超长上下文窗口:Gemma 4 支持最高达 256K tokens 的上下文窗口,这意味着它可以处理整本小说、大型代码库或长篇研究报告,实现通盘理解和信息整合。

模型介绍

Gemma 4 并非单一模型,而是由四款不同规格的模型组成,以覆盖从手机到数据中心的全场景部署需求。

模型版本 核心特点 适用场景
Gemma 4 E2B 超轻量级,有效参数仅 23 亿,内存占用可低于 2GB。 手机、树莓派等资源受限的边缘设备。
Gemma 4 E4B 轻量级,有效参数 45 亿,在性能和速度间取得良好平衡。 笔记本电脑、平板等移动设备。
Gemma 4 26B MoE 混合专家(MoE)架构,推理时仅激活约 38 亿参数,效率极高。 追求高性能与低延迟平衡的消费级 GPU 部署。
Gemma 4 31B Dense 性能最强的稠密模型,拥有 310 亿全激活参数。 工作站、服务器等需要极致性能的场景。

如果有显卡显存6G+16G内存电脑可以推荐e4b,如果有更好的配置更推荐e26b,模型能力更强,这里我所使用的是e4b,用来进行体验OpenClaw完全足够了,如果想让他帮你干事的话,就需要去使用云端大模型了。

接着下载好ollama之后,输入cmd,在cmd中输入以下命令进行模型拉取:

ollama pull gemma4:e4b

运行模型使用命令:

ollama run gemma4:e4b

1、系统要求与环境准备

(1)硬件要求

配置项

最低要求

推荐配置

⾼性能配置

CPU

2 核

4 核

8 核+

内存

4GB

8GB

16GB+

存储

10GB

50GB SSD

100GB+ SSD

⽹络

1Mbps

10Mbps

100Mbps+

(2)软件依赖

OpenClaw 需要以下软件环境:

  • Node.js:版本 22 或更⾼

  • npm:Node.js 包管理器

  • Git :版本控制⼯具( 可选)

  • Docker:容器化部署( 可选)

(3)软件版本检查

在安装前 ,检查系统是否满⾜要求:

$ node --version         # 应显⽰v22.x .x 或更⾼
$ npm --version         # 应显⽰10.x .x 或更⾼
$ git --version         # 检查Git版本

2、Rockylinux/RHEL/CentOS Stream 9 部署

(1)关闭防火墙和selinux

修改/etc/selinux/config文件,将SELINUX=enforcing修改为SELINUX=disabled,然后执行如下命令:

[root@localhost ~]# grubby --update-kernel ALL --args selinux=0

接着,关闭防火墙:

[root@localhost ~]# systemctl  stop firewalld.service 
[root@localhost ~]# systemctl  disable firewalld.service

最后,修改rockylinux默认软件源为阿里云地址,安装部署更快:

[root@localhost ~]# sed -e 's|^mirrorlist=|#mirrorlist=|g'     -e 's|^#baseurl=http://dl.rockylinux.org/$contentdir|baseurl=https://mirrors.aliyun.com/rockylinux|g'     -i.bak /etc/yum.repos.d/rocky*.repo
[root@localhost ~]# dnf makecache  

最后,重启reboot服务器。

(2)安装nodejs

这是关键步骤,nidejs版本必须大于22,官方给的方法是:

[root@localhost ~]# curl -fsSL https://rpm.nodesource.com/setup_22.x | sudo bash -
[root@localhost ~]# yum install -y nodejs

第一条命令是下载一个nodejs的dnf安装源,但是rpm.nodesource.com地址国内某些用户可能无法访问,大家可自行测试,如何可以正常执行,就按照此方法,如果不行,用下面离线安装方法。

这里使用nodejs的二进制安装包完成安装,从阿里云下载大于等于22版本的nodejs版本即可,地址为:https://mirrors.aliyun.com/nodejs-release/,安装过程如下:

[root@localhost ~]# tar -xJvf node-v24.1.0-linux-x64.tar.xz -C /usr/local --strip-components=1
[root@localhost local]# node -v
v24.1.0

其中,--strip-components=1 表示:解压时去掉最外层的 node-v24.1.0-linux-x64 目录,直接把目录内的所有文件子目录(binlib 等)放到 /usr/local 下,而不是放到 /usr/local/node-v24.1.0-linux-x64 里。

(3)安装openclaw

此步骤最为关键,坑很多,首先要保证你的机器安装了gcc、glibc、cmake这类基础工具,执行下面命令安装:

[root@localhost ~]# dnf groupinstall -y "Development Tools"
[root@localhost ~]# dnf install -y cmake

在使用npm安装openclaw过程中,默认会从github下载一些插件,但 GitHub 在国内连接不稳定,因此会导致openclaw安装失败,这里提供一个github镜像加速的方法,命令如下:

[root@localhost ~]# git config --global url."https://gh-proxy.com/https://github.com/".insteadOf "https://github.com/"

然后就可以直接使用原始命令,Git 会自动走加速通道:例如:

[root@localhost ~]# git clone https://github.com/whiskeysockets/libsignal-node.git

上面配置完成后,接着就可以愉快的安装openclaw了,命令如下:

[root@localhost ~]# npm config set registry https://registry.npmmirror.com
[root@localhost ~]# npm install -g openclaw@latest --unsafe-perm

其中:

npm config set registry是配置npm 国内镜像,提高安装速度。

npm install -g (全局安装)

openclaw@latest (安装最新版)

--unsafe-perm (核心参数:禁用安全限制) ,就是告诉 npm:“不要降权,直接以 root 身份运行安装脚本。,如果是sudo模式安装,需要加上此选项,因为npm 在运行安装脚本(如编译 C++ 插件、下载二进制文件)时,为了安全,会自动降权,切换到一个权限较低的匿名用户(如 nobody)来执行。

注意:上面加速拉取代码是临时使用,当你需要使用git推送代码(push)到国内某仓库时,记得执行下面命令来恢复。

git config --global --unset url."https://gh-proxy.com/https://github.com/".insteadOf

上面所有命令执行完成,openclaw就安装完成了。

四、配置openclaw(关键步骤)

安装完成,执行如下命令,进入openclaw 配置过程:

openclaw onboard

下面是安装提示:软件默认适配单用户,多用户使用需额外做安全配置,询问是否继续安装,选择YES继续:

下面步骤是使用快速配置,还是手动配置,建议选择 QuickStart即可:

接下来进行模型选择,选择ollama

接下来回到Windows进行ollama相关配置

第一步:配置 Windows 端的 Ollama
默认情况下,Ollama 只允许本机(Windows)访问。你需要让它允许外部(Linux 服务器)访问。
设置环境变量:
在 Windows 搜索栏输入“环境变量”,选择“编辑系统环境变量”。
点击“环境变量”按钮。


在“用户变量”或“系统变量”中点击“新建”。
变量名:OLLAMA_HOST
变量值:0.0.0.0:11434
点击确定保存。


重启 Ollama:
在 Windows 右下角任务栏找到 Ollama 图标,右键选择“Quit”退出。
重新启动 Ollama(在开始菜单中打开)。
检查 Windows 防火墙(关键):
打开“Windows Defender 防火墙” -> “高级设置”。
点击“入站规则” -> “新建规则”。
选择“端口” -> 下一步 -> 选择“TCP”,特定本地端口填 11434。
选择“允许连接”,一直下一步直到完成。

或者也可以直接关闭防火墙
第二步:获取 Windows 的 IP 地址
在 Windows 上按 Win + R,输入 cmd 打开命令提示符。
输入 ipconfig。
找到你正在使用的网络适配器(通常是无线局域网适配器或以太网适配器),记下 IPv4 地址(例如 192.168.1.100)。
第三步:配置 Linux 端的 OpenClaw
回Linux终端,把 Ollama base URL 修改为 Windows 的 IP 地址。

http://你的Windows的IP:11434

举例:
如果你的 Windows IP 是 192.168.1.100,那就填:

http://192.168.1.100:11434

验证连接
配置完成后,在 Linux 终端里可以用 curl 命令测试一下是否连通:

接着进行一下选择配置

接着选择飞书作为通道

下图是配置飞书的验证信息:

这一步是 OpenClaw 与飞书建立通信的核心配置。可以把此步骤看作是在飞书平台上为 OpenClaw 申请一个“通行证”。

下图书输入飞书的App IDApp Secret

OpenClaw安装过程中,需要连接渠道,国内常见的可用渠道有飞书、qq、微信等,这里以飞书为例,需要提前在飞书开发中心配置好相关应用。

以下是在飞书https://open.feishu.cn/详细的操作全过程:

1、创建飞书自建应用

  1. 登录 飞书开放平台 (https://open.feishu.cn/)。

  2. 点击右上角的 “开发者后台”

  3. 点击 “创建企业自建应用”,输入应用名称(如 OpenClaw_Bot)和描述,上传一个图标,点击确认创建。

2、获取凭证 (Credentials)

(1)、在左侧菜单栏选择 “凭证与基础信息”

(2)、你会看到 App IDApp Secret

下图是配置飞书连接模式:

推荐选择WebSocket,因为WebSocket 是由你的服务器主动连接飞书服务器。即使你的服务器在内网、实验室环境或防火墙后,只要能上外网,机器人就能跑通。

为什么通常不选 Webhook?因为此模式要求飞书服务器能够主动访问你的服务器。这意味着你必须拥有公网 IP,并且必须配置 HTTPS(飞书强制要求)。

接下来,选择飞书域名,有国内版和国际版,现在国内版就行。

下图是你的 AI 机器人飞书群聊里的“社交礼仪”

Open - respond in all groups (requires mention) (推荐)

  • 含义:只要有人在群里 @机器人,它就会回复。

Allowlist - only respond in specific groups (严谨/生产环境)

  • 含义:机器人只在白名单里的特定群聊中说话,哪怕在其他群 @它,它也不理。

Disabled - don't respond in groups (最保守)

  • 含义:机器人只支持 1 对 1 私聊。

下图是配置 OpenClaw 机器人联网搜索的能力,当 AI 无法回答实时信息时,它会通过这个插件去网上查。

建议:Skip for now (推荐) 或 Kimi,这里我选 Skip for now

大多数搜索插件(如 Brave, Google, Perplexity)都需要额外的 API Key(通常是付费的),且国内服务器访问这些国外搜索接口往往需要稳定的代理。

如果你确实需要联网能力,Kimi 是月之暗面提供的国产大模型服务,其搜索接口在国内服务器上访问速度最快、最稳定,且对中文内容的抓取(如 CSDN、知乎、飞书文档)支持最好。接下来跳过,不设置

下面开始配置技能,AI 助手不仅能聊天,还能通过这些“技能”去执行任务,选择yes

下图是列出了可以直接添加的技能,推荐安装clawhub,这是 OpenClaw 的官方技能库管理器,有了它,以后可以直接在飞书里输入 /install [新技能]

下面是包管理器(Package Manager)的选型,OpenClaw 的各种“技能”(Skills)本质上都是一个个 Node.js 插件。当你以后想给机器人增加新功能(比如让它能查 Jira、监控 Zabbix 或搜索网页)时,OpenClaw 需要调用一个工具去下载并安装这些插件的依赖包。这里选择npm即可。

下面这些步骤都是OpenClaw 插件的特定功能密钥,可暂不配置,都选择NO,这些辅助功能以后随时可以在 openclaw.json 里补上。

下表是上面选项代表的含义:

选项

对应功能

选 No 的影响

GOOGLE_PLACES_API_KEY

地图/地点搜索

机器人不能帮你查公司附近哪家外卖好。

GEMINI_API_KEY

图像理解/分析

暂时不能用 Gemini 的多模态能力分析服务器机房的照片。

NOTION_API_KEY

知识库同步

机器人暂时无法读写你的 Notion 页面。

OPENAI_API_KEY (Image/Whisper)

画图与语音

机器人不能发语音消息,也不能根据报错画一张架构图。

下图是配置OpenClaw 在执行任务前后的自动化脚本,俗称Hooks(钩子):

建议使用空格键选中以下两项,然后回车:

📝 command-logger (运维审计必备 - 强烈推荐)

  • 含义:记录 AI 执行的所有 Shell 命令。这相当于开启了 操作审计日志,方便事后排查故障。

💾 session-memory (增强对话逻辑 - 推荐)

  • 含义:让 AI 更好地记住当前对话的上下文。你在处理复杂的故障时,对话往往很长。开启这个能让 AI 不会“聊着聊着就忘了”前几步的操作结果,保持逻辑连贯。

当你完成这一步,onboard 引导就彻底结束了!你将会看到:

Configuration saved to /root/.openclaw/openclaw.json

下图是UI访问方式,特别是token,记录下来:

现在OpenClaw 已经收集齐了你的配置信息,下面步骤是问你:你想在哪里看着机器人正式上线?

Hatch in TUI (推荐)

  • 含义:在当前的命令行(Terminal User Interface)里直接运行初始化。这是最直观的。你可以直接在终端看到实时的运行日志(Logs),如果飞书 API 报错或者 Token 无效,报错信息会立刻刷出来。

Open the Web UI

  • 含义:启动一个网页端的控制台来完成后续步骤。虽然界面漂亮,但如果你是在的openclaw安装早云主机或虚拟机上,可能需要额外配置端口转发(SSH Tunneling)才能看到网页,稍微麻烦一点。

Do this later

  • 含义:仅保存配置并退出,不立即启动。

现在Open the Web UI,会给你访问信息:

由于安全限制,不能直接ip加端口访问web ui,需要进行一个转发配置,如果openclaw部署在远程主机,你需要在你的笔记本电脑执行如下命令:

ssh -N -L 18789:127.0.0.1:18789 root@192.168.194.5

-N: 告诉 SSH 只要建立隧道,不要执行远程命令(不会跳出终端提示符)。

-L 18789:127.0.0.1:18789: 这就像是在你的笔记本和服务器之间拉了一根虚拟网线。当你访问笔记本的 18789 端口时,数据会自动“穿梭”到服务器的 127.0.0.1:18789 上。

在笔记本终端(Windows CMD 或 Mac Terminal)运行上面那条 ssh -N -L... 命令并保持窗口别关。最后,在浏览器里直接复制粘贴最下面那行带 Token 的链接: http://127.0.0.1:18789/#token=b385e2a6bfxxxxx39f67aba471f1ecbc201782b8432a3b7a9

然后现在就进来了

接着我们来开始进行测试

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐