觉得云端 AI 不安全?想在自家电脑上彻底离线跑 AI 代理?那你一定得试试 Ollama。它是目前公认最好用的本地模型运行工具,像 Llama、Qwen 这些热门模型,点一下就能跑起来。配合上 OpenClaw 这个强大的代理引擎,你不光能本地调模型,还能保留丝滑的打字机输出和自动调用工具的功能,配置起来也没什么门槛。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

为什么要这么折腾?

  • 隐私拉满:所有对话都在你眼皮子底下处理,数据根本不出家门,稳得很。
  • 上手极快:一行命令就能装好几十种大模型,不用到处找下载包。
  • 真智能:用的是 Ollama 原生接口,调工具特别稳,不像那些半吊子兼容模式容易报错。
  • 自动更新:新下载的模型直接就能用,不用费劲去改什么配置文件。
  • 省钱省到家:用自己电脑的算力,一分钱 API 费都不用给。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

四步教你快速上手

第一步:安装 Ollama

先去 Ollama 官网把安装包下回来,不管是苹果、Windows 还是 Linux 系统都能跑。

第二步:拉取一个本地模型

打开你的终端,输入下面这几行:

# 推荐这个,中文效果好,速度也飞快
ollama pull glm-4.7-flash
# 或者试试这些国外的经典模型
ollama pull llama3.3
ollama pull mistral

💡 想看看自己都装了啥?输个 ollama list 就知道了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第三步:启动 OpenClaw 配置

在终端执行:

openclaw onboard

跟着屏幕提示选就行:

  • Local:只想安安静静跑本地,选这个。
  • Cloud + Local:如果你还想混着云端模型(比如 kimi)一起玩,就选这个。
    OpenClaw 会自动给你推荐:
  • 本地默认选:glm-4.7-flash
  • 云端默认选:kimi-k2.5:cloud 等等。

第四步:定好默认模型

# 命令行一键搞定
openclaw models set ollama/glm-4.7-flash
# 或者在 openclaw.json 文件里手动改
{
  "agents": {
    "defaults": {
      "model": { "primary": "ollama/glm-4.7-flash" }
    }
  }
}

搞定!你的 AI 助手现在已经完全跑在本地了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

它是怎么实现“自动发现”的?

OpenClaw 聪明就聪明在它会自己“找活干”。只要你满足这两个条件:

  1. 随便设一个 OLLAMA_API_KEY(比如填个 ollama-local)。
  2. 在配置里别去手动定义 models.providers.ollama
    它就会自动连上你本地的 11434 端口,把所有拉取过的模型全列出来,甚至连上下文窗口大小都能自动猜出来。如果模型名字里带着 r1 或者 think,它还会贴心地把它们标注为“推理模型”,而且所有成本都记为 0 元。
    🔄 即插即用:你这边刚 ollama pull 完一个新模型,那边 openclaw models list 就能立刻看到它,连程序都不用重开。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

⚠️ 避坑指南:千万别乱加 /v1 后缀!

Ollama 其实有两种 API 模式:

  • 原生 API:就是 http://host:11434。这套最稳,流式输出和工具调用都没问题。
  • OpenAI 兼容模式:就是 http://host:11434/v1。这玩意儿在调工具时经常掉链子,可能会给你吐出一堆 JSON 乱码。
    听我的,一定要用原生接口。
    ✅ 这样写是对的:{ "baseUrl": "http://localhost:11434" }
    ❌ 这样写会出 Bug:{ "baseUrl": "http://localhost:11434/v1" }
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

进阶玩法

场景 1:Ollama 在另一台电脑上

如果你的 Ollama 跑在服务器或者另一台电脑上,那就得显式写一下配置了,记得手动列出你想用的模型名字。

场景 2:非要用兼容模式不可

如果你因为某些网络代理的原因必须用 /v1 接口,记得把“流式输出”关掉,不然很容易产生冲突导致程序崩溃。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

哪里出错了?

遇到什么事 该怎么办
找不到 Ollama 检查 OLLAMA_API_KEY 设了没,配置里有没有多余的定义
列表里没模型 赶紧去 ollama pull 一个模型下来
怎么都连不上 看看 ollama serve 启动没,端口是不是 11434
工具调用没反应 看看你的 baseUrl 是不是手抖加了 /v1
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

总结一下

有了 OpenClaw 和 Ollama 的强强联手,你在家就能搭出一套既安全又好用的 AI 系统。不管是自己写代码玩,还是给公司搭内网助理,这套组合都非常香。
现在就试试看:

ollama pull glm-4.7-flash
export OLLAMA_API_KEY="ollama-local"
openclaw onboard

让 AI 真正成为你的私人助手,而不是云端的过客。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐