OpenClaw凭借出众的能力爆火出圈,如果将它集成到飞书中做成专属智能助手,能大幅提升日常办公效率,让文档总结、消息处理、任务协同更智能高效。想要稳定落地这一场景,一块靠谱的边缘硬件平台必不可少。

飞凌嵌入式OK1126B-S开发板作为一款基于瑞芯微RK1126B处理器打造的边缘AI视觉板卡,集成4个ARM Cortex-A53高性能核心,具备3TOPS@INT8的AI计算能力,可轻松完成端侧轻量化AI模型实时推理,性能高、功耗低、私密性强的特性,让它非常适合作为本地AI Agent的运行平台。

系统方面,推荐使用Debian/Ubuntu等完整Linux发行版,方便通过apt安装依赖库与AI相关组件;不建议使用精简Linux(如Buildroot),否则在开发和部署过程中会增加环境搭建成本。

在本文中,小编将为大家介绍本地私有化模型部署以及访问云端模型API的方法。

1、安装 OpenClaw

curl -fsSL https://openclaw.ai/install.sh | bash

安装完成后进入引导界面,如果没有出现下述界面,可以在终端输入 :

openclaw onboard --install-daemon

进入引导界面后,依次选择:yes → QuickStart → Use existing values

如果您有带NVIDIA GPU的服务器,可以跳转到1.2适配本地模型章节,在您的服务器上部署免费的模型。

1.1 接入云端付费模型

然后进入到模型选择界面,此处我们选择Qwen免费模型进行体验,如果您拥有付费模型的API,此处选择相应的模型即可。


以接入Qwen模型为例,此处点击链接登录后即可免费体验Qwen模型:

1.2 接入本地模型(选择云端模型API,跳过此章节)

1.2.1 服务器端安装Ollama

最低配置:

内存:4GB(跑1B-3B小模型)

存储:10GB空闲空间

系统:Linux/macOS 12+ /Windows 10+

推荐配置:

内存:16GB+(跑7B-14B模型)

显卡:NVIDIA 8GB+显存(GPU加速)

存储:50GB+SSD

curl -fsSL https://ollama.com/install.sh | sh

上述脚本会下载最新版本的Ollama并且自动创建系统服务、启动后台进程,安装完成后,执行下述命令,如果出现版本号,则说明安装成功:

ollama --version

1.2.2 修改Ollama service服务

Ollama service服务默认运行在 127.0.0.1 上,无法满足远程调用的需求,因此需要修改对应的 service 服务。

vi /etc/systemd/system/ollama.service

在[Service]区域添加:

Environment="OLLAMA_HOST=0.0.0.0"

添加后如下所示:

然后重启服务即可:


sudo systemctl daemon-reload
sudo systemctl restart ollama

1.2.3 下载并运行指定模型

执行下述命令后,会自动下载指定模型并运行,此处我们选择qwen3.5-9b 模型,请根据实际服务器情况选择模型下载。

注:在https://ollama.com/library目录下,你可以看到 Ollama支持的所有模型。

ollama run qwen3.5:9b

此时,可以使用如下命令,在OK1126B-S上测试对话,正常情况下执行该命令后,会得到一长串的输出:


curl http://${服务器IP地址}:11434/api/chat -d '{
"model": "qwen3.5:9b",
"messages": [
  {"role": "user", "content": "你是谁"}
 ]
}'

1.2.4 OpenClaw配置

使用本地模型时,需要对OpenClaw的配置文件进行手动配置,配置方法如下:

Step1:编辑OpenClaw配置文件

vi ~/.openclaw/openclaw.json

Step2:将下述内容粘贴进入openclaw.json,并按照步骤三的说明进行修改适配

{
  "meta": {
    "lastTouchedVersion": "2026.3.8",
    "lastTouchedAt": "2026-03-12T01:44:37.610Z"
  },
  "wizard": {
    "lastRunAt": "2026-03-12T01:44:37.566Z",
    "lastRunVersion": "2026.3.8",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "profiles": {}
  },
  "models": {
    "providers": {
      "ollama-remote": {
        "baseUrl": "http://192.168.1.111:11434/v1",
        "apiKey": "sk-no-key-required",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5:9b",
            "name": "Qwen 3.5 9B (Remote Ollama)",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama-remote/qwen3.5:9b"
      },
      "models": {
        "ollama-remote/qwen3.5:9b": {
          "alias": "qwen"
        }
      },
      "workspace": "/root/.openclaw/workspace",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "tools": {
    "profile": "coding"
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto",
    "restart": true,
    "ownerDisplay": "raw"
  },
  "session": {
    "dmScope": "per-channel-peer"
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "4893303352c56f5e9acbb076cc47c5398bb8df525fed4699"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    },
    "nodes": {
      "denyCommands": [
        "camera.snap",
        "camera.clip",
        "screen.record",
        "contacts.add",
        "calendar.add",
        "reminders.add",
        "sms.send"
      ]
    }
  },
  "plugins": {
    "entries": {}
  }
}

Step3:配置字段修改适配

(1)models.providers 下面的 key 可以自定义填写,比如我这里填写的是 "ollama-remote";

(2)baseUrl 字段需要填写服务器的地址,即1.3中使用 curl 进行测试时的地址,比如我此处的地址 "http://192.168.1.111:11434/v1";

(3)apiKey 字段可以随便填写,但不能不写;

(4)api 字段需要根据模型的输出接口形式确定,ollama 输出的是标准的 openai 形式,故此处就是 openai-completions;

(5)models 字段下的 id 需要严格匹配 ollama 中的模型名,而 name 字段则可以随便写;

(6)agents 字段注意修改 primary 字段以及 models 字段的 key 值,修改为 " models.providers 下面的 key / models.id", 即我此处设置的 "ollama-remote/qwen3.5:9b"

配置完成后,重新在命令行输入"openclaw onboard" 进入引导界面。

1.2.5 选择本地模型

选择模型阶段,直接跳过即可。

然后选择 All providers

如果您在此之前没有配置过,直接点击此处的Keep current即可,后面括号中会自带刚才配置中写的模型。

1.3 基础配置

以下基础配置仅适用于初次验证,没有集成额外功能,按照图中依次选择即可。

如果您是第一次安装, 会自动安装 Gateway service,如果不是,选择 Rstart 即可。

如果是第一次安装,会出现启动方式,其中 TUI 是终端命令行输入,Web UI则是在OK1126B-S开发板连接的显示器上跳出Web界面进行操作。

如果没有上述选择启动方式的界面,也可以手动输入下述命令进入终端。

openclaw tui

然后就可以正常对话啦:

2、打造自己的飞书智能助手

2.1 创建飞书应用

进入飞书开发者后台:https://open.feishu.cn/app,点击"创建企业自建应用"

填写"应用名称"和"应用描述"后,点击"创建"按钮:

在"凭证与基础信息"一栏中,复制 App ID 以及 App Secret, 后续配置时需要使用:

2.2 配置OpenClaw

在OK1126B-S开发板上输入下述命令安装并查看飞书插件

openclaw plugins enable feishu
openclaw plugins list

Feishu 一栏显示 Loaded 即代表启动成功

然后进入 OpenClaw 配置界面,并选择 Yes

openclaw channels add

然后再选择 "Feishu/Lark(飞书)"

选择 "Enter App Secret":

依次输入 2.1 步骤中复制的 App Secret 以及 App ID

然后设置连接模式为 "WebSocket",并使用国内域名:

此处选择"Open"策略,响应所有群聊,注意: Allowlist 策略只响应白名单中的群聊。

点击 "Finished" 后其他选项选择默认配置即可

2.3 配置飞书机器人

回到我们飞书创建的应用界面,依次点击: 添加应用能力机器人,点击"添加"按钮,开启机器人能力:

然后依次点击 : 权限管理批量导入/导出权限:

批量导入/导出权限界面,粘贴以下json,启用权限:

{
  "scopes": {
    "tenant": [
      "aily:file:read",
      "aily:file:write",
      "application:application.app_message_stats.overview:readonly",
      "application:application:self_manage",
      "application:bot.menu:write",
      "cardkit:card:read",
      "cardkit:card:write",
      "contact:user.employee_id:readonly",
      "corehr:file:download",
      "event:ip_list",
      "im:chat.access_event.bot_p2p_chat:read",
      "im:chat.members:bot_access",
      "im:message",
      "im:message.group_at_msg:readonly",
      "im:message.p2p_msg:readonly",
      "im:message:readonly",
      "im:message:send_as_bot",
      "im:resource"
    ],
    "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"]
  }
}

然后依次点击 :下一步,确认新增权限 → 申请开通

然后依次点击 :事件与回调  事件配置  订阅方式  使用长连接接收事件  保存

然后点击 "添加事件",并添加以下事件:

im.message.receive_v1- 接收消息
im.message.message_read_v1- 消息已读回执
im.chat.member.bot.added_v1- 机器人进群
im.chat.member.bot.deleted_v1- 机器人被移出群

最后依次点击:  版本管理与发布  创建版本,填写版本号和说明后,发布创建申请。

2.4 测试

进入 飞书 APP 端,点击右上角 + 号,并创建群组

依次点击右上角 ... 进入设置界面,然后选择添加机器人

输入刚才创建的机器人名字后,添加机器人即可:

然后,就可以在飞书中对话啦。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐