在OpenClaw里玩转主流大模型 —— 从本地 Ollama 到云端 OpenRouter 的全攻略
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
现在这大模型圈子卷得厉害,咱们的选择也多得离谱:要么在自家电脑上跑个离线的开源模型,要么去调那些顶尖的闭源接口;可以盯着一家薅羊毛,也能通过聚合平台一次性搞定几十家。不过,模型多了也头疼,每家的接口格式、授权方式、起名规则都不一样,接起来挺费劲的。
OpenClaw 就是专门来帮咱们省心的。它像个全能转换器,把底层的各种差异都给抹平了,还给几个主流平台准备了现成的优化方案。今天咱们就唠唠怎么在 OpenClaw 里把这六个核心渠道给玩转了:
- Ollama —— 玩本地开源模型的绝佳选择
- OpenAI —— 经典的 GPT 系列,支持 API Key 和订阅两种搞法
- NVIDIA —— 想要高性能的 Nemotron 或 NeMo 就找它
- Moonshot AI —— 懂中文的 Kimi,写代码和日常聊天都能行
- OpenCode —— 双架构托管,Zen 和 Go 两个目录各司其职
- OpenRouter —— 真正的“万能钥匙”,一个 Key 通吃上百个模型
咱们这篇干货挺长,从安装配置到优化避坑全都有,保证能帮你搭出一套既顺手又强大的 AI 助手系统。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第一部分:自己动手,丰衣足食 —— Ollama 本地集成
1.1 为啥大家都爱 Ollama?
Ollama 算是现在本地跑模型最火的工具了,优点确实硬核:
- 隐私保密:数据都在你电脑里转,不用担心被发到网上。
- 不花冤枉钱:不用买 token,只要你的电脑跑得动就行。
- 操作贼简单:想换模型?一行命令
ollama pull就搞定。 - 不挑系统:不管是 Mac、Windows 还是 Linux,甚至 M 系列芯片的 Mac 都能跑得飞起。
对于咱个人开发者或者对数据安全特别在意的团队来说,Ollama 简直就是个完美的“自留地”。
1.2 怎么装、怎么用?
先把 Ollama 装上
去官网把安装包拽下来装好就行。装完后它会在后台默默运行,默认守着 127.0.0.1:11434 这个端口。
拽几个模型下来
代码语言:TXT
# 想要中文好使的,试试这两个
ollama pull glm-4.7-flash
ollama pull qwen2.5-coder:32b
# 英文通用的,选这几个准没错
ollama pull llama3.3
ollama pull mistral
ollama pull gemma2:27b
# 看看自己都攒了哪些模型
ollama list
💡 悄悄话:模型名字后面带个冒号(比如
:32b)是用来选特定版本的,别弄混了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
1.3 让 OpenClaw 接管 Ollama
OpenClaw 连 Ollama 有两种姿势,一种是“全自动”,一种是“手动挡”。
姿势一:全自动发现(最省事儿)
你只需要随便给个环境变量:
代码语言:TXT
export OLLAMA_API_KEY="ollama-local"
然后直接跑:
代码语言:TXT
openclaw onboard --auth-choice skip
OpenClaw 就会自己顺着端口摸过去,把模型列表扒出来,顺便看看模型懂不懂“分步思考”,还贴心地把花费都记成 0 元。
姿势二:手动配置(适合高级玩家)
如果你的 Ollama 跑在别的机器上,或者你想精细控制,就得写配置文件了:
代码语言:TXT
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://192.168.1.100:11434",
"apiKey": "ollama-local",
"api": "ollama",
"models": [
{
"id": "glm-4.7-flash",
"name": "GLM-4.7 Flash",
"contextWindow": 32768,
"maxTokens": 8192,
"reasoning": false,
"cost": { "input": 0, "output": 0 }
},
{
"id": "deepseek-r1:32b",
"name": "DeepSeek R1 32B",
"contextWindow": 131072,
"maxTokens": 16384,
"reasoning": true
}
]
}
}
},
"agents": {
"defaults": {
"model": { "primary": "ollama/glm-4.7-flash" }
}
}
}
1.4 ⚠️ 避坑指南:千万别乱加 /v1
这是个大坑!Ollama 的 API 有两种:
- 原生 API:就是普通的端口地址,它支持工具调用,输出也稳。
- OpenAI 兼容 API:地址后面带个
/v1。这玩意儿在工具调用上经常掉链子。
听我一句劝,用原生 API。 如果你非要加/v1,模型可能会把代码块直接吐出来,搞得程序不知所措。
✅ 这样写是对的:{ "baseUrl": "http://localhost:11434" }
❌ 这样写是错的:{ "baseUrl": "http://localhost:11434/v1" }
1.5 进阶小技巧
自动识别“聪明人”
OpenClaw 会盯着模型名字看,只要名字里带 r1、reasoning 或者 think,它就觉得这模型会推理,能在干活时帮你多想几步。
管理记忆力
想让模型读长文章?那你得把 contextWindow 设对。虽然 Ollama 默认只给 4k,但不少厉害模型其实能吞下 128k。你可以用命令查查模型到底有多大肚量。
1.6 遇到问题怎么办?
| 症状 | 药方 |
|---|---|
| 找不到模型 | 查查 OLLAMA_API_KEY 设了没,或者配置写岔了 |
| 连不上 | 看看 ollama serve 到底开了没有 |
| 调不动工具 | 赶紧把地址里的 /v1 删掉 |
| 反应太慢 | 换个参数少点的模型,比如 flash 版的 |
| 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! |
第二部分:正牌军 —— OpenAI 的两种玩法
2.1 搞清楚你的号是哪种
OpenAI 给咱们准备了两条路,别走错了:
| 玩法 | 谁能玩 | 怎么收钱 | 模型前缀 |
|---|---|---|---|
| API Key | 开发者或公司 | 用多少给多少 | openai/... |
| Codex 订阅 | Plus 会员 | 只要按月交钱 | openai-codex/... |
| 这两者不能混着用,各走各的道。 |
2.2 搞开发的推荐用 API Key
怎么配置
- 先去 OpenAI 后台捞一个 Key。
- 运行
openclaw onboard --auth-choice openai-api-key。 - 把模型填进配置里就行:
{ "env": { "OPENAI_API_KEY": "sk-..." }, "agents": { "defaults": { "model": { "primary": "openai/gpt-5.4" } } } }
高级玩法
- WebSocket 预热:能让模型秒回,建议开着。
- 优先通道:如果你是尊贵的付费用户,能进高优先级队列。
- 上下文压缩:聊太长了它会自动帮你省空间,防止超标。
2.3 个人用户选 Codex 订阅
怎么搞
- 运行
openclaw onboard --auth-choice openai-codex扫码登录。 - 模型前缀记得带上
-codex。
🔑 这种方式最大的好处就是不用盯着余额看,随便造。
2.4 怎么传数据
OpenClaw 默认挺聪明的,它会先试 WebSocket,不行再换 SSE。你也可以在配置里强制它只用其中一种。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第三部分:大厂风范 —— NVIDIA 模型集成
3.1 凭啥选 NVIDIA?
英伟达的 NGC 平台出的模型,主打一个稳:
- Nemotron:大名鼎鼎的 Llama 3 优化版,企业首选。
- 胃口极大:默认就能处理 13 万个 token 的超长文本。
- 无缝衔接:接口跟 OpenAI 的一模一样,换起来毫无压力。
3.2 怎么接
去 NGC 申请个以 nvapi- 开头的 Key,设置好环境变量,在 OpenClaw 配置文件里把模型指向 nvidia/llama-3.1-nemotron-70b-instruct 就行了。
第四部分:最懂中文的 —— Moonshot AI
4.1 Kimi 也分两类
月之暗面给咱们提供了两种选择,大家各取所需:
| 种类 | 干啥用 | 前缀 |
|---|---|---|
| Kimi 通用 | 聊天、读长文档 | moonshot/... |
| Kimi Coding | 专门写代码 | kimi-coding/... |
| 注意啊,这两边的 Key 不通用,得分别去领。 |
4.2 配置 Kimi
流程差不多,先认证,再写配置。Kimi 的优势是吞吐量大,最高能支持 25 万的上下文,非常夸张。
4.3 开启思考模式
Kimi 有个“深度思考”的开关,你可以通过 /think on 或 off 随时在聊天里切换,让它更稳重或者更活泼。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第五部分:高效省心 —— OpenCode 双目录
5.1 Zen 和 Go 怎么选?
OpenCode 搞了个很有意思的双目录结构:
- Zen:全是国外的顶尖货,像 Claude、GPT 什么的都在这。
- Go:专门放国内的高手,比如 Kimi 或者 GLM。
虽然是一个 Key,但你想调哪边的模型,前缀得写对。
5.2 混着用的示例
你可以配置一个主力模型,再配一个备用的。比如主力用 opencode/claude-opus-4-6,万一挂了,立马让 opencode-go/glm-5 顶上。
第六部分:终极杀招 —— OpenRouter 聚合网关
6.1 为什么要用 OpenRouter?
这玩意儿简直是懒人福音:
- 一劳永逸:一个 Key 能调上百个模型。
- 对比价格:它会帮你挑最便宜的线路。
- 配置简单:也是全兼容 OpenAI 格式。
6.2 怎么引用模型
你只要按照 openrouter/厂家/模型名 的格式写就行。比如想用最新的 Claude,就写 openrouter/anthropic/claude-sonnet-4-5。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
总结:到底该选哪一个?
别纠结,看这个表就行:
| 你的需求 | 推荐方案 |
|---|---|
| 怕泄密、不想花钱 | Ollama (本地跑) |
| 企业办公、要稳 | NVIDIA 或 OpenCode Go |
| 追求全球最强智力 | OpenAI 或 OpenCode Zen |
| 读几万字的长文档 | Moonshot Kimi |
| 啥模型都想试试 | OpenRouter |
| OpenClaw 厉害就厉害在,它允许你“全都要”。你完全能在这个系统里根据不同的活儿,自动派发最合适的模型去干。 | |
| 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! | |
| 行了,别光看着了,赶紧动手搭一个属于你自己的 AI 帝国吧! |
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)