OpenClaw 牵手 Ollama:手把手教你撸一个私密、零成本的本地 AI 智能体
想不想在自家电脑上跑一个完全不联网、谁也窥探不了的 AI 助手?现在 Ollama 简直是本地大模型的救星,像 Llama、Mistral 甚至国产的 GLM、通义千问,都能一键拉取。而 OpenClaw 就像是这些模型的“操作系统”,它能和 Ollama 完美契合,不仅能自动识别模型,还完整保留了流式输出和各种工具调用能力。今天就带大家看看,怎么把这俩神器凑一对,零门槛打造你的专属代理。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
为什么要这么搭?
- ✅ 纯本地环境:所有数据都在你眼皮子底下处理,隐私安全妥妥的。
- ✅ 上手即用:一行命令就能装好几十种大模型,省心省力。
- ✅ 功能不缩水:直接调用 Ollama 原生接口,让 AI 调起工具来稳如老狗。
- ✅ 自动认领模型:刚下的新模型,OpenClaw 眨眼间就能识别出来,不用费劲配置。
- ✅ 彻底白嫖:自家显卡出力,不用给任何 API 厂商交钱。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
快速上手:四步搞定本地 AI 代理
第一步:把 Ollama 装好
先去官网把 Ollama 客户端下回来,无论是 Mac、Windows 还是 Linux 都能轻松安装。
第二步:把模型拽到本地
打开终端,输入下面的命令把模型下好:
# 强烈推荐:国产轻量又聪明的模型
ollama pull glm-4.7-flash
# 或者是这些国外的大热门
ollama pull llama3.3
ollama pull mistral
要是想看看自己手里都有啥,敲个 ollama list 就知道了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第三步:启动 OpenClaw 配置
在命令行里输入:
openclaw onboard
跟着菜单选:
- Local:如果你想纯离线玩,选这个。
- Cloud + Local:想同时用云端模型(比如 Kimi)和本地模型,选这个。
通常情况下,OpenClaw 会建议你把glm-4.7-flash当主力模型,云端则默认配好kimi-k2.5:cloud等。
第四步:定个“带头大哥”
# 命令行直接搞定
openclaw models set ollama/glm-4.7-flash
# 或者在 openclaw.json 文件里手动改
{
"agents": {
"defaults": {
"model": { "primary": "ollama/glm-4.7-flash" }
}
}
}
大功告成!你的 OpenClaw 现在已经由本地模型接管了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
核心黑科技:模型自动发现
OpenClaw 聪明的地方就在于它的“隐式识别”机制。只要满足两点:你随便设了个 OLLAMA_API_KEY(哪怕填“local”也行),而且没在配置文件里死板地定义 Ollama 供应商。它就会自动:
- 顺着 11434 端口摸过去。
- 把你拉取的本地模型全翻出来。
- 自动查清楚每个模型的上下文长度和元数据。
- 只要看到名字里带 r1、think 之类的,就自动标记为推理型模型。
- 计费部分全标为 0 元,突出一个白嫖。
而且这是动态的,你这边刚ollama pull完,OpenClaw 那边马上就能刷出新模型,根本不用重启。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
⚠️ 避坑指南:千万别乱加 /v1 后缀!
Ollama 给了两种 API 模式:一个是它家原生的,另一个是模仿 OpenAI 的兼容接口。虽然兼容接口看起来通用,但它在工具调用上经常掉链子,有时候还会乱吐 JSON 文本。
OpenClaw 强烈建议用原生的!
所以在配置 baseUrl 的时候,绝对不能带 /v1:
✅ 这样才对:http://localhost:11434
❌ 这是错的:http://localhost:11434/v1 (加了这个,工具调用就等着报错吧)。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
进阶玩法
场景一:模型在另一台电脑上
如果你的 Ollama 跑在局域网的服务器上,就得手动配置一下:
{
"models": {
"providers": {
"ollama": {
"apiKey": "ollama-local",
"baseUrl": "http://192.168.1.100:11434",
"api": "ollama",
"models": [
{ "id": "llama3.3", "contextWindow": 8192 }
]
}
}
}
}
场景二:非要走 OpenAI 模式(真的不建议)
除非你必须通过某种特定的网关代理,否则别这么干。这种情况下记得把流式传输关了:
{
"agents": {
"defaults": {
"models": {
"ollama/llama3.3": {
"params": { "streaming": false }
}
}
}
}
}
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
常见坑位排查
- 找不到 Ollama? 检查环境变量里设了 API Key 没有,还要确保配置文件里没把 Ollama 写死。
- 列表里没模型? 没干活可不行,先去
ollama pull一个。 - 连不上? 看看
ollama serve开了没,是不是 11434 端口被占了。 - 工具调用失灵? 回头看看你的
baseUrl里是不是多写了/v1。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
总结一下
有了 OpenClaw 和 Ollama 的强强联合,你就能在本地轻松搭起一个既私密又好用的 AI 系统。不管是搞开发、做公司内网部署,还是自己存点私房知识,这套方案的灵活性和安全性都是顶尖的。
别犹豫了,现在就试试:
ollama pull glm-4.7-flash
export OLLAMA_API_KEY="ollama-local"
openclaw onboard
让你的 AI 代理,真正听命于你。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
所有评论(0)