想不想在自家电脑上跑一个完全不联网、谁也窥探不了的 AI 助手?现在 Ollama 简直是本地大模型的救星,像 Llama、Mistral 甚至国产的 GLM、通义千问,都能一键拉取。而 OpenClaw 就像是这些模型的“操作系统”,它能和 Ollama 完美契合,不仅能自动识别模型,还完整保留了流式输出和各种工具调用能力。今天就带大家看看,怎么把这俩神器凑一对,零门槛打造你的专属代理。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

为什么要这么搭?

  • 纯本地环境:所有数据都在你眼皮子底下处理,隐私安全妥妥的。
  • 上手即用:一行命令就能装好几十种大模型,省心省力。
  • 功能不缩水:直接调用 Ollama 原生接口,让 AI 调起工具来稳如老狗。
  • 自动认领模型:刚下的新模型,OpenClaw 眨眼间就能识别出来,不用费劲配置。
  • 彻底白嫖:自家显卡出力,不用给任何 API 厂商交钱。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

快速上手:四步搞定本地 AI 代理

第一步:把 Ollama 装好

先去官网把 Ollama 客户端下回来,无论是 Mac、Windows 还是 Linux 都能轻松安装。

第二步:把模型拽到本地

打开终端,输入下面的命令把模型下好:

# 强烈推荐:国产轻量又聪明的模型
ollama pull glm-4.7-flash
# 或者是这些国外的大热门
ollama pull llama3.3
ollama pull mistral

要是想看看自己手里都有啥,敲个 ollama list 就知道了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第三步:启动 OpenClaw 配置

在命令行里输入:

openclaw onboard

跟着菜单选:

  • Local:如果你想纯离线玩,选这个。
  • Cloud + Local:想同时用云端模型(比如 Kimi)和本地模型,选这个。
    通常情况下,OpenClaw 会建议你把 glm-4.7-flash 当主力模型,云端则默认配好 kimi-k2.5:cloud 等。

第四步:定个“带头大哥”

# 命令行直接搞定
openclaw models set ollama/glm-4.7-flash
# 或者在 openclaw.json 文件里手动改
{
  "agents": {
    "defaults": {
      "model": { "primary": "ollama/glm-4.7-flash" }
    }
  }
}

大功告成!你的 OpenClaw 现在已经由本地模型接管了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

核心黑科技:模型自动发现

OpenClaw 聪明的地方就在于它的“隐式识别”机制。只要满足两点:你随便设了个 OLLAMA_API_KEY(哪怕填“local”也行),而且没在配置文件里死板地定义 Ollama 供应商。它就会自动:

  • 顺着 11434 端口摸过去。
  • 把你拉取的本地模型全翻出来。
  • 自动查清楚每个模型的上下文长度和元数据。
  • 只要看到名字里带 r1、think 之类的,就自动标记为推理型模型。
  • 计费部分全标为 0 元,突出一个白嫖。
    而且这是动态的,你这边刚 ollama pull 完,OpenClaw 那边马上就能刷出新模型,根本不用重启。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

⚠️ 避坑指南:千万别乱加 /v1 后缀!

Ollama 给了两种 API 模式:一个是它家原生的,另一个是模仿 OpenAI 的兼容接口。虽然兼容接口看起来通用,但它在工具调用上经常掉链子,有时候还会乱吐 JSON 文本。
OpenClaw 强烈建议用原生的!
所以在配置 baseUrl 的时候,绝对不能带 /v1
✅ 这样才对:http://localhost:11434
❌ 这是错的:http://localhost:11434/v1 (加了这个,工具调用就等着报错吧)。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

进阶玩法

场景一:模型在另一台电脑上

如果你的 Ollama 跑在局域网的服务器上,就得手动配置一下:

{
  "models": {
    "providers": {
      "ollama": {
        "apiKey": "ollama-local",
        "baseUrl": "http://192.168.1.100:11434",
        "api": "ollama",
        "models": [
          { "id": "llama3.3", "contextWindow": 8192 }
        ]
      }
    }
  }
}

场景二:非要走 OpenAI 模式(真的不建议)

除非你必须通过某种特定的网关代理,否则别这么干。这种情况下记得把流式传输关了:

{
  "agents": {
    "defaults": {
      "models": {
        "ollama/llama3.3": {
          "params": { "streaming": false }
        }
      }
    }
  }
}

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

常见坑位排查

总结一下

有了 OpenClaw 和 Ollama 的强强联合,你就能在本地轻松搭起一个既私密又好用的 AI 系统。不管是搞开发、做公司内网部署,还是自己存点私房知识,这套方案的灵活性和安全性都是顶尖的。
别犹豫了,现在就试试:

ollama pull glm-4.7-flash
export OLLAMA_API_KEY="ollama-local"
openclaw onboard

让你的 AI 代理,真正听命于你。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐