手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
现在这大模型圈子卷得厉害,咱们的选择也多得离谱:要么在自家电脑上跑个离线的开源模型,要么去调那些顶尖的闭源接口;可以盯着一家薅羊毛,也能通过聚合平台一次性搞定几十家。不过,模型多了也头疼,每家的接口格式、授权方式、起名规则都不一样,接起来挺费劲的。
OpenClaw 就是专门来帮咱们省心的。它像个全能转换器,把底层的各种差异都给抹平了,还给几个主流平台准备了现成的优化方案。今天咱们就唠唠怎么在 OpenClaw 里把这六个核心渠道给玩转了:

  1. Ollama —— 玩本地开源模型的绝佳选择
  2. OpenAI —— 经典的 GPT 系列,支持 API Key 和订阅两种搞法
  3. NVIDIA —— 想要高性能的 Nemotron 或 NeMo 就找它
  4. Moonshot AI —— 懂中文的 Kimi,写代码和日常聊天都能行
  5. OpenCode —— 双架构托管,Zen 和 Go 两个目录各司其职
  6. OpenRouter —— 真正的“万能钥匙”,一个 Key 通吃上百个模型
    咱们这篇干货挺长,从安装配置到优化避坑全都有,保证能帮你搭出一套既顺手又强大的 AI 助手系统。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第一部分:自己动手,丰衣足食 —— Ollama 本地集成

1.1 为啥大家都爱 Ollama?

Ollama 算是现在本地跑模型最火的工具了,优点确实硬核:

  • 隐私保密:数据都在你电脑里转,不用担心被发到网上。
  • 不花冤枉钱:不用买 token,只要你的电脑跑得动就行。
  • 操作贼简单:想换模型?一行命令 ollama pull 就搞定。
  • 不挑系统:不管是 Mac、Windows 还是 Linux,甚至 M 系列芯片的 Mac 都能跑得飞起。
    对于咱个人开发者或者对数据安全特别在意的团队来说,Ollama 简直就是个完美的“自留地”。

1.2 怎么装、怎么用?

先把 Ollama 装上

去官网把安装包拽下来装好就行。装完后它会在后台默默运行,默认守着 127.0.0.1:11434 这个端口。

拽几个模型下来

代码语言:TXT

# 想要中文好使的,试试这两个
ollama pull glm-4.7-flash
ollama pull qwen2.5-coder:32b
# 英文通用的,选这几个准没错
ollama pull llama3.3
ollama pull mistral
ollama pull gemma2:27b
# 看看自己都攒了哪些模型
ollama list

💡 悄悄话:模型名字后面带个冒号(比如 :32b)是用来选特定版本的,别弄混了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

1.3 让 OpenClaw 接管 Ollama

OpenClaw 连 Ollama 有两种姿势,一种是“全自动”,一种是“手动挡”。

姿势一:全自动发现(最省事儿)

你只需要随便给个环境变量:
代码语言:TXT

export OLLAMA_API_KEY="ollama-local"

然后直接跑:
代码语言:TXT

openclaw onboard --auth-choice skip

OpenClaw 就会自己顺着端口摸过去,把模型列表扒出来,顺便看看模型懂不懂“分步思考”,还贴心地把花费都记成 0 元。

姿势二:手动配置(适合高级玩家)

如果你的 Ollama 跑在别的机器上,或者你想精细控制,就得写配置文件了:
代码语言:TXT

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://192.168.1.100:11434",
        "apiKey": "ollama-local",
        "api": "ollama",
        "models": [
          {
            "id": "glm-4.7-flash",
            "name": "GLM-4.7 Flash",
            "contextWindow": 32768,
            "maxTokens": 8192,
            "reasoning": false,
            "cost": { "input": 0, "output": 0 }
          },
          {
            "id": "deepseek-r1:32b",
            "name": "DeepSeek R1 32B",
            "contextWindow": 131072,
            "maxTokens": 16384,
            "reasoning": true
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": { "primary": "ollama/glm-4.7-flash" }
    }
  }
}

1.4 ⚠️ 避坑指南:千万别乱加 /v1

这是个大坑!Ollama 的 API 有两种:

  • 原生 API:就是普通的端口地址,它支持工具调用,输出也稳。
  • OpenAI 兼容 API:地址后面带个 /v1。这玩意儿在工具调用上经常掉链子。
    听我一句劝,用原生 API。 如果你非要加 /v1,模型可能会把代码块直接吐出来,搞得程序不知所措。
    ✅ 这样写是对的:{ "baseUrl": "http://localhost:11434" }
    ❌ 这样写是错的:{ "baseUrl": "http://localhost:11434/v1" }

1.5 进阶小技巧

自动识别“聪明人”

OpenClaw 会盯着模型名字看,只要名字里带 r1reasoning 或者 think,它就觉得这模型会推理,能在干活时帮你多想几步。

管理记忆力

想让模型读长文章?那你得把 contextWindow 设对。虽然 Ollama 默认只给 4k,但不少厉害模型其实能吞下 128k。你可以用命令查查模型到底有多大肚量。

1.6 遇到问题怎么办?

症状 药方
找不到模型 查查 OLLAMA_API_KEY 设了没,或者配置写岔了
连不上 看看 ollama serve 到底开了没有
调不动工具 赶紧把地址里的 /v1 删掉
反应太慢 换个参数少点的模型,比如 flash 版的
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第二部分:正牌军 —— OpenAI 的两种玩法

2.1 搞清楚你的号是哪种

OpenAI 给咱们准备了两条路,别走错了:

玩法 谁能玩 怎么收钱 模型前缀
API Key 开发者或公司 用多少给多少 openai/...
Codex 订阅 Plus 会员 只要按月交钱 openai-codex/...
这两者不能混着用,各走各的道。

2.2 搞开发的推荐用 API Key

怎么配置
  1. 先去 OpenAI 后台捞一个 Key。
  2. 运行 openclaw onboard --auth-choice openai-api-key
  3. 把模型填进配置里就行:{ "env": { "OPENAI_API_KEY": "sk-..." }, "agents": { "defaults": { "model": { "primary": "openai/gpt-5.4" } } } }
高级玩法
  • WebSocket 预热:能让模型秒回,建议开着。
  • 优先通道:如果你是尊贵的付费用户,能进高优先级队列。
  • 上下文压缩:聊太长了它会自动帮你省空间,防止超标。

2.3 个人用户选 Codex 订阅

怎么搞
  1. 运行 openclaw onboard --auth-choice openai-codex 扫码登录。
  2. 模型前缀记得带上 -codex

🔑 这种方式最大的好处就是不用盯着余额看,随便造。

2.4 怎么传数据

OpenClaw 默认挺聪明的,它会先试 WebSocket,不行再换 SSE。你也可以在配置里强制它只用其中一种。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第三部分:大厂风范 —— NVIDIA 模型集成

3.1 凭啥选 NVIDIA?

英伟达的 NGC 平台出的模型,主打一个稳:

  • Nemotron:大名鼎鼎的 Llama 3 优化版,企业首选。
  • 胃口极大:默认就能处理 13 万个 token 的超长文本。
  • 无缝衔接:接口跟 OpenAI 的一模一样,换起来毫无压力。

3.2 怎么接

去 NGC 申请个以 nvapi- 开头的 Key,设置好环境变量,在 OpenClaw 配置文件里把模型指向 nvidia/llama-3.1-nemotron-70b-instruct 就行了。

第四部分:最懂中文的 —— Moonshot AI

4.1 Kimi 也分两类

月之暗面给咱们提供了两种选择,大家各取所需:

种类 干啥用 前缀
Kimi 通用 聊天、读长文档 moonshot/...
Kimi Coding 专门写代码 kimi-coding/...
注意啊,这两边的 Key 不通用,得分别去领。

4.2 配置 Kimi

流程差不多,先认证,再写配置。Kimi 的优势是吞吐量大,最高能支持 25 万的上下文,非常夸张。

4.3 开启思考模式

Kimi 有个“深度思考”的开关,你可以通过 /think onoff 随时在聊天里切换,让它更稳重或者更活泼。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第五部分:高效省心 —— OpenCode 双目录

5.1 Zen 和 Go 怎么选?

OpenCode 搞了个很有意思的双目录结构:

  • Zen:全是国外的顶尖货,像 Claude、GPT 什么的都在这。
  • Go:专门放国内的高手,比如 Kimi 或者 GLM。
    虽然是一个 Key,但你想调哪边的模型,前缀得写对。

5.2 混着用的示例

你可以配置一个主力模型,再配一个备用的。比如主力用 opencode/claude-opus-4-6,万一挂了,立马让 opencode-go/glm-5 顶上。

第六部分:终极杀招 —— OpenRouter 聚合网关

6.1 为什么要用 OpenRouter?

这玩意儿简直是懒人福音:

  • 一劳永逸:一个 Key 能调上百个模型。
  • 对比价格:它会帮你挑最便宜的线路。
  • 配置简单:也是全兼容 OpenAI 格式。

6.2 怎么引用模型

你只要按照 openrouter/厂家/模型名 的格式写就行。比如想用最新的 Claude,就写 openrouter/anthropic/claude-sonnet-4-5
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

总结:到底该选哪一个?

别纠结,看这个表就行:

你的需求 推荐方案
怕泄密、不想花钱 Ollama (本地跑)
企业办公、要稳 NVIDIAOpenCode Go
追求全球最强智力 OpenAIOpenCode Zen
读几万字的长文档 Moonshot Kimi
啥模型都想试试 OpenRouter
OpenClaw 厉害就厉害在,它允许你“全都要”。你完全能在这个系统里根据不同的活儿,自动派发最合适的模型去干。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
行了,别光看着了,赶紧动手搭一个属于你自己的 AI 帝国吧!
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐