玩转 OpenClaw + Ollama:零成本在家折腾一个既安全又强悍的私人 AI 助手
别再担心隐私泄露了,如果你想在完全不联网的环境下跑 AI 代理,那 Ollama 绝对是目前的头号选择。它能让你在自己电脑上秒拉 Llama、Qwen 这些热门的开源模型。OpenClaw 现在跟 Ollama 配合得特别默契,不光能自动认出你下好的模型,连流式对话和工具调用这些高级功能也一个不落。只要简单点点,你的本地 AI 就能支棱起来。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
为啥推荐你用 Ollama + OpenClaw?
- ✅ 数据纯本地:所有的对话都在你眼皮子底下跑,数据绝不出屋。
- ✅ 上手没难度:想下什么模型,直接
ollama pull一行命令搞定。 - ✅ 工具调用贼稳:用的是 Ollama 原生接口,执行函数调用时比兼容模式靠谱得多。
- ✅ 模型自动发现:你刚下好的模型,OpenClaw 马上就能认出来,不用手动去改列表。
- ✅ 薅显卡羊毛:只要你有设备,推理全免费,再也不用看 API 余额了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
快速开搞:简单四步让本地代理跑起来
第一步:把 Ollama 装好
去官网上把 Ollama 客户端下回来装上,不管你是 Windows、Mac 还是 Linux 都能跑。
第二步:拉个模型试试水
代码语言:TXT
# 比较推荐这个,中文效果好且速度快
ollama pull glm-4.7-flash
# 追求通用的可以选这些
ollama pull llama3.3
ollama pull mistral
💡 想看看自己都装了啥?敲个
ollama list就行。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第三步:启动 OpenClaw 配置向导
代码语言:TXT
openclaw onboard
在跳出来的菜单里根据你的需求选:
Local:纯本地党选这个,主打一个断网也能用。Cloud + Local:如果你还想蹭点像kimi-k2.5:cloud这种云端模型,就选这个。
OpenClaw 默认会帮你推荐这些:- 本地首选:
glm-4.7-flash - 云端首选:
kimi-k2.5:cloud或glm-5:cloud
第四步:定好你的默认模型
代码语言:TXT
# 直接用命令设
openclaw models set ollama/glm-4.7-flash
# 或者去改 openclaw.json 文件
{
"agents": {
"defaults": {
"model": { "primary": "ollama/glm-4.7-flash" }
}
}
}
搞定!现在的 OpenClaw 已经完全由你的本地 Ollama 驱动了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
核心黑科技:模型自动感应
OpenClaw 聪明的地方在于它的“隐式提供商”逻辑:
只要你满足这两点:
- 随便设个
OLLAMA_API_KEY(比如填个"ollama-local")。 - 在配置里别去手动定义
models.providers.ollama。
OpenClaw 就会自动去连http://127.0.0.1:11434,把本地模型全翻出来,连上下文窗口多大、是不是推理模型都能自己识别出来,而且统统记为零成本。
🔄 同步很快:你这边刚
ollama pull完,那边openclaw models list就能看到新模型,根本不用重启。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
⚠️ 避坑指南:千万别手痒加 /v1 后缀!
Ollama 给出了两种连接方式:
- 原生模式:地址是
http://host:11434。这才是 OpenClaw 的首选,工具调用和流式输出都稳如老狗。 - OpenAI 兼容模式:地址带个
/v1。这种模式下工具调用很容易翻车,甚至给你甩出一堆 JSON 原文。
听我的,配置里绝对不要带/v1:
✅ 正确做法:
{ "baseUrl": "http://localhost:11434" }
❌ 错误示范:
{ "baseUrl": "http://localhost:11434/v1" } // 这样会导致 AI 变“智障”,工具没法用!
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
进阶玩法
场景 1:给远程服务器上的 Ollama 用
如果你的模型跑在另一台电脑上,那就得老老实实写配置了:
{
"models": {
"providers": {
"ollama": {
"apiKey": "ollama-local",
"baseUrl": "http://192.168.1.100:11434", // 同样别加 /v1
"api": "ollama",
"models": [
{ "id": "llama3.3", "contextWindow": 8192, "maxTokens": 2048 }
// 这种情况下得手动列出模型
]
}
}
}
}
场景 2:非得用兼容模式(不建议)
如果你因为某些特殊原因必须走 OpenAI 格式,那记得把流式输出关了:
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434/v1",
"api": "openai-completions",
"injectNumCtxForOpenAICompat": true,
"models": [/* ... */]
}
}
},
"agents": {
"defaults": {
"models": {
"ollama/llama3.3": {
"params": { "streaming": false }
}
}
}
}
}
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
常见问题排查
| 遇到啥事了 | 试试这么办 |
|---|---|
| OpenClaw 抓瞎找不到 Ollama | 看看 OLLAMA_API_KEY 设了没,或者删掉手动定义的 provider |
| 模型列表是空的 | 看看你是不是还没运行 ollama pull 下模型 |
| 提示连接不上 | 确认 ollama serve 开着呢,端口是不是 11434 |
| 工具调用不灵 | 破案了,肯定是你地址里加了 /v1 |
| 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! |
总结
靠着 OpenClaw 和 Ollama 的这套组合拳,你完全可以在家搭起一个既私密又强大的 AI 代理系统。不管是拿来做开发测试,还是搞个人知识库,它都能给你拉满灵活性。
话不多说,直接开干:
代码语言:TXT
ollama pull glm-4.7-flash
export OLLAMA_API_KEY="ollama-local"
openclaw onboard # 选 Ollama 模式
把 AI 关进笼子里,让它真正为你所用。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)