OpenClaw 玩转 OpenAI:API 密钥与 Codex 订阅双模式全攻略
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
作为 AI 界的领头羊,OpenAI 的 GPT 系列(比如那个挺玄乎的 gpt-5.4)一直是大家做智能应用的首选。OpenClaw 这个 AI 代理系统也挺给力,不仅能让你用常规的 API 密钥,还能直接让你登录 ChatGPT 账号(Codex 订阅) 来调用模型。这样一来,你想按量付费还是想白嫖自己的订阅会员,都能随心切换。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
这篇教程就带你彻底搞明白这两条路子怎么走,顺便看看 OpenClaw 帮 OpenAI 模型搞的那些牛逼优化,像什么 WebSocket 预热、排队优先级还有服务器端的对话压缩。
两种上车方式,看你哪个方便
✅ 方案 A:OpenAI API 密钥(适合干正事或用量不大的朋友)
谁适合用:开发者或者公司用户,想用多少付多少钱,自己有 OpenAI 平台账号的。
具体咋操作
- 先去 OpenAI 后台把 API 密钥拿到手。
- 跑一下这个交互配置:
或者直接一行命令搞定:openclaw onboard --auth-choice openai-api-keyopenclaw onboard --openai-api-key "$OPENAI_API_KEY" - 在
openclaw.json配置文件里改一下默认模型:{ "env": { "OPENAI_API_KEY": "sk-..." }, "agents": { "defaults": { "model": { "primary": "openai/gpt-5.4" } } } }
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
📌 写模型名的小窍门:用 API 模式时,模型名字前面要加
openai/,比如openai/gpt-5.4。
✅ 方案 B:Codex 订阅(直接登 ChatGPT 账号,省钱利器)
谁适合用:手里已经有 ChatGPT Plus 或者 Codex 订阅的个人用户,不想额外多掏 API 钱,直接复用会员权益就行。
具体咋操作
- 用授权的方式登录你的 ChatGPT 账户:
或者直接触发登录流程:openclaw onboard --auth-choice openai-codexopenclaw models auth login --provider openai-codex - 同样是在配置里设一下默认模型,但注意前缀变了:
{ "agents": { "defaults": { "model": { "primary": "openai-codex/gpt-5.4" } } } }
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
🔑 这块儿得留神:
- 走 API 密钥的叫
openai/gpt-5.4 - 走 Codex 订阅的叫
openai-codex/gpt-5.4
这两家可不能串门,认证方式完全是两码事。
别光会调接口,OpenClaw 还有这些“黑科技”优化
1. 聪明的数据传输(WebSocket + SSE)
OpenClaw 默认会自己看着办(“auto” 模式):
- 优先选 WebSocket,因为这玩意儿延迟低,反馈快。
- 万一网络不给力连不上,它会自动降级到 SSE 模式。
如果你想自己定,也可以手动改:
{
"agents": {
"defaults": {
"models": {
"openai/gpt-5.4": {
"params": { "transport": "websocket" }
}
}
}
}
}
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
2. 连接预热(仅限 API 模式)
为了让你发消息时感觉不到卡顿,OpenClaw 会提前把连接“热”起来:
// 想省点资源可以关掉
"params": { "openaiWsWarmup": false }
// 默认就是开着的,挺好使
"params": { "openaiWsWarmup": true }
3. 优先级插队(Priority Processing)
要是你手头有些任务特别急,可以给它申请个高优先级队列:
"params": { "serviceTier": "priority" }
这儿能填 auto、default、flex 或者 priority。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
4. 帮你的对话“瘦身”(Responses API 专属)
聊得久了,对话内容太长很占地方,OpenClaw 会自动开启 OpenAI 的服务器端压缩功能:
- 强制把
store设为 true。 - 只要对话长度到了设定的坎儿(默认是 70%),它就会自动精简上下文。
你自己也能定这个门槛:
"params": {
"responsesServerCompaction": true,
"responsesCompactThreshold": 120000
}
💡 注意啊,这招只对
openai/*这种走 Responses API 的模型管用,Codex 模式是用不了的。
给你支几招
| 想怎么用 | 建议方案 |
|---|---|
| 公司业务、人多、要稳、要快 | API 密钥模式 + 优先级设为 priority |
| 自己玩、有 Plus 会员 | Codex 订阅(省心还省钱) |
| 对话特别长(超过 10 万字) | API 密钥模式 + 开启服务器压缩 |
| 语音助手那种实时交互 | API 密钥模式 + WebSocket + 预热 |
| 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! |
聊到最后
OpenClaw 对 OpenAI 的支持可不只是接个接口那么简单。它搞了两套认证满足不同人的需求,还充分利用了 OpenAI 最新的 Responses API、优先级队列和上下文压缩,就是为了让你的 AI 跑得更顺溜。
无论你是追求极致控制的硬核开发者,还是只想简单省事复用订阅的普通玩家,OpenClaw 都给你把路铺好了。
别犹豫了,赶紧试试吧:
- 有 API Key 的,跑:
openclaw onboard --auth-choice openai-api-key - 有 Plus 会员的,跑:
openclaw onboard --auth-choice openai-codex
让 GPT-5.4 成为你最强的 AI 助手。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)