OpenClaw这么火,用它做个飞书助手怎么样?
OpenClaw凭借出众的能力爆火出圈,如果将它集成到飞书中做成专属智能助手,能大幅提升日常办公效率,让文档总结、消息处理、任务协同更智能高效。想要稳定落地这一场景,一块靠谱的边缘硬件平台必不可少。
飞凌嵌入式OK1126B-S开发板作为一款基于瑞芯微RK1126B处理器打造的边缘AI视觉板卡,集成4个ARM Cortex-A53高性能核心,具备3TOPS@INT8的AI计算能力,可轻松完成端侧轻量化AI模型实时推理,性能高、功耗低、私密性强的特性,让它非常适合作为本地AI Agent的运行平台。
系统方面,推荐使用Debian/Ubuntu等完整Linux发行版,方便通过apt安装依赖库与AI相关组件;不建议使用精简Linux(如Buildroot),否则在开发和部署过程中会增加环境搭建成本。
在本文中,小编将为大家介绍本地私有化模型部署以及访问云端模型API的方法。
1、安装 OpenClaw
curl -fsSL https://openclaw.ai/install.sh | bash
安装完成后进入引导界面,如果没有出现下述界面,可以在终端输入 :
openclaw onboard --install-daemon
进入引导界面后,依次选择:yes → QuickStart → Use existing values



如果您有带NVIDIA GPU的服务器,可以跳转到1.2适配本地模型章节,在您的服务器上部署免费的模型。
1.1 接入云端付费模型
然后进入到模型选择界面,此处我们选择Qwen免费模型进行体验,如果您拥有付费模型的API,此处选择相应的模型即可。

以接入Qwen模型为例,此处点击链接登录后即可免费体验Qwen模型:

1.2 接入本地模型(选择云端模型API,跳过此章节)
1.2.1 服务器端安装Ollama
最低配置:
内存:4GB(跑1B-3B小模型)
存储:10GB空闲空间
系统:Linux/macOS 12+ /Windows 10+
推荐配置:
内存:16GB+(跑7B-14B模型)
显卡:NVIDIA 8GB+显存(GPU加速)
存储:50GB+SSD
curl -fsSL https://ollama.com/install.sh | sh
上述脚本会下载最新版本的Ollama并且自动创建系统服务、启动后台进程,安装完成后,执行下述命令,如果出现版本号,则说明安装成功:
ollama --version
![]()
1.2.2 修改Ollama service服务
Ollama service服务默认运行在 127.0.0.1 上,无法满足远程调用的需求,因此需要修改对应的 service 服务。
vi /etc/systemd/system/ollama.service
在[Service]区域添加:
Environment="OLLAMA_HOST=0.0.0.0"
添加后如下所示:

然后重启服务即可:
sudo systemctl daemon-reload
sudo systemctl restart ollama
1.2.3 下载并运行指定模型
执行下述命令后,会自动下载指定模型并运行,此处我们选择qwen3.5-9b 模型,请根据实际服务器情况选择模型下载。
注:在https://ollama.com/library目录下,你可以看到 Ollama支持的所有模型。
ollama run qwen3.5:9b
![]()
此时,可以使用如下命令,在OK1126B-S上测试对话,正常情况下执行该命令后,会得到一长串的输出:
curl http://${服务器IP地址}:11434/api/chat -d '{
"model": "qwen3.5:9b",
"messages": [
{"role": "user", "content": "你是谁"}
]
}'
1.2.4 OpenClaw配置
使用本地模型时,需要对OpenClaw的配置文件进行手动配置,配置方法如下:
Step1:编辑OpenClaw配置文件
vi ~/.openclaw/openclaw.json
Step2:将下述内容粘贴进入openclaw.json,并按照步骤三的说明进行修改适配
{
"meta": {
"lastTouchedVersion": "2026.3.8",
"lastTouchedAt": "2026-03-12T01:44:37.610Z"
},
"wizard": {
"lastRunAt": "2026-03-12T01:44:37.566Z",
"lastRunVersion": "2026.3.8",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"auth": {
"profiles": {}
},
"models": {
"providers": {
"ollama-remote": {
"baseUrl": "http://192.168.1.111:11434/v1",
"apiKey": "sk-no-key-required",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5:9b",
"name": "Qwen 3.5 9B (Remote Ollama)",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 32768,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama-remote/qwen3.5:9b"
},
"models": {
"ollama-remote/qwen3.5:9b": {
"alias": "qwen"
}
},
"workspace": "/root/.openclaw/workspace",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"tools": {
"profile": "coding"
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto",
"restart": true,
"ownerDisplay": "raw"
},
"session": {
"dmScope": "per-channel-peer"
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token",
"token": "4893303352c56f5e9acbb076cc47c5398bb8df525fed4699"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
},
"nodes": {
"denyCommands": [
"camera.snap",
"camera.clip",
"screen.record",
"contacts.add",
"calendar.add",
"reminders.add",
"sms.send"
]
}
},
"plugins": {
"entries": {}
}
}
Step3:配置字段修改适配
(1)models.providers 下面的 key 可以自定义填写,比如我这里填写的是 "ollama-remote";
(2)baseUrl 字段需要填写服务器的地址,即1.3中使用 curl 进行测试时的地址,比如我此处的地址 "http://192.168.1.111:11434/v1";
(3)apiKey 字段可以随便填写,但不能不写;
(4)api 字段需要根据模型的输出接口形式确定,ollama 输出的是标准的 openai 形式,故此处就是 openai-completions;
(5)models 字段下的 id 需要严格匹配 ollama 中的模型名,而 name 字段则可以随便写;
(6)agents 字段注意修改 primary 字段以及 models 字段的 key 值,修改为 " models.providers 下面的 key / models.id", 即我此处设置的 "ollama-remote/qwen3.5:9b"
配置完成后,重新在命令行输入"openclaw onboard" 进入引导界面。
1.2.5 选择本地模型
选择模型阶段,直接跳过即可。

然后选择 All providers

如果您在此之前没有配置过,直接点击此处的Keep current即可,后面括号中会自带刚才配置中写的模型。

1.3 基础配置
以下基础配置仅适用于初次验证,没有集成额外功能,按照图中依次选择即可。





如果您是第一次安装, 会自动安装 Gateway service,如果不是,选择 Rstart 即可。

如果是第一次安装,会出现启动方式,其中 TUI 是终端命令行输入,Web UI则是在OK1126B-S开发板连接的显示器上跳出Web界面进行操作。

如果没有上述选择启动方式的界面,也可以手动输入下述命令进入终端。
openclaw tui
然后就可以正常对话啦:

2、打造自己的飞书智能助手
2.1 创建飞书应用
进入飞书开发者后台:https://open.feishu.cn/app,点击"创建企业自建应用"

填写"应用名称"和"应用描述"后,点击"创建"按钮:

在"凭证与基础信息"一栏中,复制 App ID 以及 App Secret, 后续配置时需要使用:

2.2 配置OpenClaw
在OK1126B-S开发板上输入下述命令安装并查看飞书插件
openclaw plugins enable feishu
openclaw plugins list
Feishu 一栏显示 Loaded 即代表启动成功

然后进入 OpenClaw 配置界面,并选择 Yes
openclaw channels add

然后再选择 "Feishu/Lark(飞书)"

选择 "Enter App Secret":

依次输入 2.1 步骤中复制的 App Secret 以及 App ID

然后设置连接模式为 "WebSocket",并使用国内域名:


此处选择"Open"策略,响应所有群聊,注意: Allowlist 策略只响应白名单中的群聊。

点击 "Finished" 后其他选项选择默认配置即可





2.3 配置飞书机器人
回到我们飞书创建的应用界面,依次点击: 添加应用能力→机器人,点击"添加"按钮,开启机器人能力:

然后依次点击 : 权限管理→批量导入/导出权限:

批量导入/导出权限界面,粘贴以下json,启用权限:
{
"scopes": {
"tenant": [
"aily:file:read",
"aily:file:write",
"application:application.app_message_stats.overview:readonly",
"application:application:self_manage",
"application:bot.menu:write",
"cardkit:card:read",
"cardkit:card:write",
"contact:user.employee_id:readonly",
"corehr:file:download",
"event:ip_list",
"im:chat.access_event.bot_p2p_chat:read",
"im:chat.members:bot_access",
"im:message",
"im:message.group_at_msg:readonly",
"im:message.p2p_msg:readonly",
"im:message:readonly",
"im:message:send_as_bot",
"im:resource"
],
"user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"]
}
}
然后依次点击 :下一步,确认新增权限 → 申请开通

然后依次点击 :事件与回调 → 事件配置 → 订阅方式 → 使用长连接接收事件 → 保存

然后点击 "添加事件",并添加以下事件:

im.message.receive_v1- 接收消息
im.message.message_read_v1- 消息已读回执
im.chat.member.bot.added_v1- 机器人进群
im.chat.member.bot.deleted_v1- 机器人被移出群
最后依次点击: 版本管理与发布 → 创建版本,填写版本号和说明后,发布创建申请。


2.4 测试
进入 飞书 APP 端,点击右上角 + 号,并创建群组

依次点击右上角 ... 进入设置界面,然后选择添加机器人

输入刚才创建的机器人名字后,添加机器人即可:

然后,就可以在飞书中对话啦。

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)