OpenClaw 牵手 Ollama:教你打造一个私密、白嫖且全能的本地 AI 智能体
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
想在自家电脑上跑一个既不联网也能用,还不用担心隐私泄露的 AI 助手吗?Ollama 现在可是玩转本地大模型的顶流,像 Llama、Mistral、Qwen 还有咱们国产的 GLM,基本上都能一键拉取运行。而 OpenClaw 作为一个懂行的 AI 智能体管理系统,早就跟 Ollama 搞好了深度集成。它不但能自动认领你下载的模型,还能稳稳地支持流式聊天和工具调用(Tool Calling),配置起来也特别省心。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
这篇文章就带你从头开始,把 OpenClaw 和 Ollama 攒在一起,彻底压榨本地模型的战斗力。
为什么这俩搭档是绝配?
- ✅ 数据纯本地:所有的对话都在你眼皮子底下跑,不出房门半步,隐私安全感拉满。
- ✅ 上手超快:想换模型?一行
ollama pull命令,几十个开源大模型随便挑。 - ✅ 使唤插件更灵光:直接走 Ollama 的原生接口,调取函数工具时反应更精准,没那么多奇奇怪怪的报错。
- ✅ 模型全自动发现:你刚下好的新模型,它扭头就能识别出来,不用你自己对着配置文件改来改去。
- ✅ 一分钱都不花:只要你的显卡和电费管够,这就是纯粹的白嫖。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
跟着做:四步带你起飞
第一步:把 Ollama 装好
先去官网下载并安装 Ollama(甭管你是苹果、Windows 还是 Linux 用户都没问题)。
第二步:拽个模型回来
代码语言:TXT
自动换行
AI代码解释
# 如果你想要轻快一点的中文体验,推荐这个
ollama pull glm-4.7-flash
# 或者是这些名气很大的通用模型
ollama pull llama3.3
ollama pull mistral
💡 记不住自己装了啥?输入
ollama list就能看个清楚。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第三步:运行 OpenClaw 配置向导
代码语言:TXT
自动换行
AI代码解释
openclaw onboard
在跳出来的菜单里选:
Local:打算彻底断网跑,选这个。Cloud + Local:想同时用云端的模型(比如不用下载的kimi-k2.5:cloud),选这个。
OpenClaw 会给你推荐:- 本地默认:
glm-4.7-flash - 云端默认:
kimi-k2.5:cloud,glm-5:cloud
第四步:钦定你的主打模型
代码语言:TXT
自动换行
AI代码解释
# 直接用命令行一键搞定
openclaw models set ollama/glm-4.7-flash
# 或者你喜欢手动去 openclaw.json 文件里改也行
{
"agents": {
"defaults": {
"model": { "primary": "ollama/glm-4.7-flash" }
}
}
}
大功告成!现在的 OpenClaw 已经完全跑在你刚下好的本地模型上了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
背后是怎么运作的:自动认领模型
OpenClaw 有个特别聪明的地方,就是它的“隐式提供商”机制。
只要你满足下面这两个条件:
- 你设了一个
OLLAMA_API_KEY(哪怕随便填个ollama-local占位都行)。 - 你没在配置文件里死板地去定义
models.providers.ollama。
OpenClaw 就会自动干活:
- 它会去连
http://127.0.0.1:11434敲门。 - 通过
/api/tags看看你本地装了哪些货。 - 用
/api/show搞清楚每个模型的记忆力(上下文)有多大。 - 只要名字里带
r1、reasoning、think字样的,它会自动把它们归类为“推理型模型”。 - 最重要的是,它把所有消费都记为 0 元。
🔄 秒同步:只要你那边
ollama pull了一个新模型,这边openclaw models list马上就能刷出来,不用重启。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
⚠️ 避雷针:千万别在地址后面加 /v1!
Ollama 给了两种接口模式,很多新手容易混淆:
- 原生 API:就是
http://host:11434。用这个最稳,流式聊天和工具调用都没毛病。 - OpenAI 兼容模式:就是
http://host:11434/v1。虽然看着亲切,但工具调用很不靠谱,经常会甩你一脸 JSON 源码。
OpenClaw 强烈建议走原生通道。
所以在配置baseUrl时,千万要保持“干净”:
✅ 正确做法:
{ "baseUrl": "http://localhost:11434" }
❌ 错误做法:
{ "baseUrl": "http://localhost:11434/v1" } // 这么搞,你的 AI 助手可能会变“傻”,使唤不动插件。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
进阶玩法
场景一:Ollama 跑在别的电脑上
如果你的模型是装在另一台机器或者服务器上的,那就得在配置里手动写一下了:
{
"models": {
"providers": {
"ollama": {
"apiKey": "ollama-local",
"baseUrl": "http://192.168.1.100:11434", // 记得别加 /v1
"api": "ollama",
"models": [
{ "id": "llama3.3", "contextWindow": 8192, "maxTokens": 2048 }
// 远程模式下,模型得手动列出来
]
}
}
}
}
场景二:非要用 OpenAI 兼容模式(不建议)
除非你中间隔了个只认 OpenAI 格式的代理层,否则别这么干。而且用的时候记得关掉流式输出:
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434/v1",
"api": "openai-completions",
"injectNumCtxForOpenAICompat": true,
"models": [/* ... */]
}
}
},
"agents": {
"defaults": {
"models": {
"ollama/llama3.3": {
"params": { "streaming": false } // 关掉流式防止出乱子
}
}
}
}
}
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
遇到问题咋整?
| 症状 | 怎么治 |
|---|---|
| OpenClaw 认不出 Ollama | 确认 OLLAMA_API_KEY 填了没,配置里是不是误加了 models.providers.ollama |
| 模型列表里空空如也 | 看看你是不是还没运行 ollama pull 下载模型 |
| 连接报错,拒绝访问 | 先看 ollama serve 启动没,再查查 11434 端口是不是被占了 |
| 叫不动插件工具 | 检查 baseUrl 里是不是手欠多写了 /v1 |
| 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! |
总结一下
把 OpenClaw 和 Ollama 组合在一起,你就相当于在本地安了一个既听话、又省钱、还特别懂隐私的 AI 大脑。不管是平时折腾开发,还是在公司内网里部署一套办公助手,这套方案都非常靠谱。
别犹豫了,现在就试试:
ollama pull glm-4.7-flash
export OLLAMA_API_KEY="ollama-local"
openclaw onboard # 进菜单选 Ollama
让 AI 真正成为你随叫随到,且完全掌控的得力助手。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)