别再担心隐私泄露了,如果你想在完全不联网的环境下跑 AI 代理,那 Ollama 绝对是目前的头号选择。它能让你在自己电脑上秒拉 Llama、Qwen 这些热门的开源模型。OpenClaw 现在跟 Ollama 配合得特别默契,不光能自动认出你下好的模型,连流式对话和工具调用这些高级功能也一个不落。只要简单点点,你的本地 AI 就能支棱起来。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

为啥推荐你用 Ollama + OpenClaw?

  • 数据纯本地:所有的对话都在你眼皮子底下跑,数据绝不出屋。
  • 上手没难度:想下什么模型,直接 ollama pull 一行命令搞定。
  • 工具调用贼稳:用的是 Ollama 原生接口,执行函数调用时比兼容模式靠谱得多。
  • 模型自动发现:你刚下好的模型,OpenClaw 马上就能认出来,不用手动去改列表。
  • 薅显卡羊毛:只要你有设备,推理全免费,再也不用看 API 余额了。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

快速开搞:简单四步让本地代理跑起来

第一步:把 Ollama 装好

去官网上把 Ollama 客户端下回来装上,不管你是 Windows、Mac 还是 Linux 都能跑。

第二步:拉个模型试试水

代码语言:TXT

# 比较推荐这个,中文效果好且速度快
ollama pull glm-4.7-flash
# 追求通用的可以选这些
ollama pull llama3.3
ollama pull mistral

💡 想看看自己都装了啥?敲个 ollama list 就行。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第三步:启动 OpenClaw 配置向导

代码语言:TXT

openclaw onboard

在跳出来的菜单里根据你的需求选:

  • Local:纯本地党选这个,主打一个断网也能用。
  • Cloud + Local:如果你还想蹭点像 kimi-k2.5:cloud 这种云端模型,就选这个。
    OpenClaw 默认会帮你推荐这些:
  • 本地首选:glm-4.7-flash
  • 云端首选:kimi-k2.5:cloudglm-5:cloud

第四步:定好你的默认模型

代码语言:TXT

# 直接用命令设
openclaw models set ollama/glm-4.7-flash
# 或者去改 openclaw.json 文件
{
  "agents": {
    "defaults": {
      "model": { "primary": "ollama/glm-4.7-flash" }
    }
  }
}

搞定!现在的 OpenClaw 已经完全由你的本地 Ollama 驱动了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

核心黑科技:模型自动感应

OpenClaw 聪明的地方在于它的“隐式提供商”逻辑:
只要你满足这两点:

  1. 随便设个 OLLAMA_API_KEY(比如填个 "ollama-local")。
  2. 在配置里去手动定义 models.providers.ollama
    OpenClaw 就会自动去连 http://127.0.0.1:11434,把本地模型全翻出来,连上下文窗口多大、是不是推理模型都能自己识别出来,而且统统记为零成本。

🔄 同步很快:你这边刚 ollama pull 完,那边 openclaw models list 就能看到新模型,根本不用重启。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

⚠️ 避坑指南:千万别手痒加 /v1 后缀!

Ollama 给出了两种连接方式:

  • 原生模式:地址是 http://host:11434。这才是 OpenClaw 的首选,工具调用和流式输出都稳如老狗。
  • OpenAI 兼容模式:地址带个 /v1。这种模式下工具调用很容易翻车,甚至给你甩出一堆 JSON 原文。
    听我的,配置里绝对不要带 /v1
    ✅ 正确做法:
{ "baseUrl": "http://localhost:11434" }

❌ 错误示范:

{ "baseUrl": "http://localhost:11434/v1" } // 这样会导致 AI 变“智障”,工具没法用!

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

进阶玩法

场景 1:给远程服务器上的 Ollama 用

如果你的模型跑在另一台电脑上,那就得老老实实写配置了:

{
  "models": {
    "providers": {
      "ollama": {
        "apiKey": "ollama-local",
        "baseUrl": "http://192.168.1.100:11434", // 同样别加 /v1
        "api": "ollama",
        "models": [
          { "id": "llama3.3", "contextWindow": 8192, "maxTokens": 2048 }
          // 这种情况下得手动列出模型
        ]
      }
    }
  }
}

场景 2:非得用兼容模式(不建议)

如果你因为某些特殊原因必须走 OpenAI 格式,那记得把流式输出关了:

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://localhost:11434/v1",
        "api": "openai-completions",
        "injectNumCtxForOpenAICompat": true,
        "models": [/* ... */]
      }
    }
  },
  "agents": {
    "defaults": {
      "models": {
        "ollama/llama3.3": {
          "params": { "streaming": false } 
        }
      }
    }
  }
}

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

常见问题排查

遇到啥事了 试试这么办
OpenClaw 抓瞎找不到 Ollama 看看 OLLAMA_API_KEY 设了没,或者删掉手动定义的 provider
模型列表是空的 看看你是不是还没运行 ollama pull 下模型
提示连接不上 确认 ollama serve 开着呢,端口是不是 11434
工具调用不灵 破案了,肯定是你地址里加了 /v1
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

总结

靠着 OpenClaw 和 Ollama 的这套组合拳,你完全可以在家搭起一个既私密又强大的 AI 代理系统。不管是拿来做开发测试,还是搞个人知识库,它都能给你拉满灵活性。
话不多说,直接开干:
代码语言:TXT

ollama pull glm-4.7-flash
export OLLAMA_API_KEY="ollama-local"
openclaw onboard  # 选 Ollama 模式

把 AI 关进笼子里,让它真正为你所用。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐