OpenClaw 配合 Ollama:在自己电脑上搞定一个安全、免费又全能的 AI 助手
觉得云端 AI 不安全?想在自家电脑上彻底离线跑 AI 代理?那你一定得试试 Ollama。它是目前公认最好用的本地模型运行工具,像 Llama、Qwen 这些热门模型,点一下就能跑起来。配合上 OpenClaw 这个强大的代理引擎,你不光能本地调模型,还能保留丝滑的打字机输出和自动调用工具的功能,配置起来也没什么门槛。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
为什么要这么折腾?
- ✅ 隐私拉满:所有对话都在你眼皮子底下处理,数据根本不出家门,稳得很。
- ✅ 上手极快:一行命令就能装好几十种大模型,不用到处找下载包。
- ✅ 真智能:用的是 Ollama 原生接口,调工具特别稳,不像那些半吊子兼容模式容易报错。
- ✅ 自动更新:新下载的模型直接就能用,不用费劲去改什么配置文件。
- ✅ 省钱省到家:用自己电脑的算力,一分钱 API 费都不用给。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
四步教你快速上手
第一步:安装 Ollama
先去 Ollama 官网把安装包下回来,不管是苹果、Windows 还是 Linux 系统都能跑。
第二步:拉取一个本地模型
打开你的终端,输入下面这几行:
# 推荐这个,中文效果好,速度也飞快
ollama pull glm-4.7-flash
# 或者试试这些国外的经典模型
ollama pull llama3.3
ollama pull mistral
💡 想看看自己都装了啥?输个 ollama list 就知道了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第三步:启动 OpenClaw 配置
在终端执行:
openclaw onboard
跟着屏幕提示选就行:
Local:只想安安静静跑本地,选这个。Cloud + Local:如果你还想混着云端模型(比如 kimi)一起玩,就选这个。
OpenClaw 会自动给你推荐:- 本地默认选:
glm-4.7-flash - 云端默认选:
kimi-k2.5:cloud等等。
第四步:定好默认模型
# 命令行一键搞定
openclaw models set ollama/glm-4.7-flash
# 或者在 openclaw.json 文件里手动改
{
"agents": {
"defaults": {
"model": { "primary": "ollama/glm-4.7-flash" }
}
}
}
搞定!你的 AI 助手现在已经完全跑在本地了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
它是怎么实现“自动发现”的?
OpenClaw 聪明就聪明在它会自己“找活干”。只要你满足这两个条件:
- 随便设一个
OLLAMA_API_KEY(比如填个ollama-local)。 - 在配置里别去手动定义
models.providers.ollama。
它就会自动连上你本地的 11434 端口,把所有拉取过的模型全列出来,甚至连上下文窗口大小都能自动猜出来。如果模型名字里带着r1或者think,它还会贴心地把它们标注为“推理模型”,而且所有成本都记为 0 元。
🔄 即插即用:你这边刚ollama pull完一个新模型,那边openclaw models list就能立刻看到它,连程序都不用重开。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
⚠️ 避坑指南:千万别乱加 /v1 后缀!
Ollama 其实有两种 API 模式:
- 原生 API:就是
http://host:11434。这套最稳,流式输出和工具调用都没问题。 - OpenAI 兼容模式:就是
http://host:11434/v1。这玩意儿在调工具时经常掉链子,可能会给你吐出一堆 JSON 乱码。
听我的,一定要用原生接口。
✅ 这样写是对的:{ "baseUrl": "http://localhost:11434" }
❌ 这样写会出 Bug:{ "baseUrl": "http://localhost:11434/v1" }
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
进阶玩法
场景 1:Ollama 在另一台电脑上
如果你的 Ollama 跑在服务器或者另一台电脑上,那就得显式写一下配置了,记得手动列出你想用的模型名字。
场景 2:非要用兼容模式不可
如果你因为某些网络代理的原因必须用 /v1 接口,记得把“流式输出”关掉,不然很容易产生冲突导致程序崩溃。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
哪里出错了?
| 遇到什么事 | 该怎么办 |
|---|---|
| 找不到 Ollama | 检查 OLLAMA_API_KEY 设了没,配置里有没有多余的定义 |
| 列表里没模型 | 赶紧去 ollama pull 一个模型下来 |
| 怎么都连不上 | 看看 ollama serve 启动没,端口是不是 11434 |
| 工具调用没反应 | 看看你的 baseUrl 是不是手抖加了 /v1 |
| 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! |
总结一下
有了 OpenClaw 和 Ollama 的强强联手,你在家就能搭出一套既安全又好用的 AI 系统。不管是自己写代码玩,还是给公司搭内网助理,这套组合都非常香。
现在就试试看:
ollama pull glm-4.7-flash
export OLLAMA_API_KEY="ollama-local"
openclaw onboard
让 AI 真正成为你的私人助手,而不是云端的过客。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)