手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
作为 AI 界的领头羊,OpenAI 的 GPT 系列(比如那个挺玄乎的 gpt-5.4)一直是大家做智能应用的首选。OpenClaw 这个 AI 代理系统也挺给力,不仅能让你用常规的 API 密钥,还能直接让你登录 ChatGPT 账号(Codex 订阅) 来调用模型。这样一来,你想按量付费还是想白嫖自己的订阅会员,都能随心切换。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
这篇教程就带你彻底搞明白这两条路子怎么走,顺便看看 OpenClaw 帮 OpenAI 模型搞的那些牛逼优化,像什么 WebSocket 预热、排队优先级还有服务器端的对话压缩。

两种上车方式,看你哪个方便

✅ 方案 A:OpenAI API 密钥(适合干正事或用量不大的朋友)

谁适合用:开发者或者公司用户,想用多少付多少钱,自己有 OpenAI 平台账号的。

具体咋操作
  1. 先去 OpenAI 后台把 API 密钥拿到手。
  2. 跑一下这个交互配置:
    openclaw onboard --auth-choice openai-api-key
    
    或者直接一行命令搞定:
    openclaw onboard --openai-api-key "$OPENAI_API_KEY"
    
  3. openclaw.json 配置文件里改一下默认模型:
    {
      "env": { "OPENAI_API_KEY": "sk-..." },
      "agents": { 
        "defaults": { 
          "model": { "primary": "openai/gpt-5.4" } 
        } 
      }
    }
    

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

📌 写模型名的小窍门:用 API 模式时,模型名字前面要加 openai/,比如 openai/gpt-5.4

✅ 方案 B:Codex 订阅(直接登 ChatGPT 账号,省钱利器)

谁适合用:手里已经有 ChatGPT Plus 或者 Codex 订阅的个人用户,不想额外多掏 API 钱,直接复用会员权益就行。

具体咋操作
  1. 用授权的方式登录你的 ChatGPT 账户:
    openclaw onboard --auth-choice openai-codex
    
    或者直接触发登录流程:
    openclaw models auth login --provider openai-codex
    
  2. 同样是在配置里设一下默认模型,但注意前缀变了:
    {
      "agents": { 
        "defaults": { 
          "model": { "primary": "openai-codex/gpt-5.4" } 
        } 
      }
    }
    

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

🔑 这块儿得留神

  • 走 API 密钥的叫 openai/gpt-5.4
  • 走 Codex 订阅的叫 openai-codex/gpt-5.4
    这两家可不能串门,认证方式完全是两码事。

别光会调接口,OpenClaw 还有这些“黑科技”优化

1. 聪明的数据传输(WebSocket + SSE)

OpenClaw 默认会自己看着办(“auto” 模式):

  • 优先选 WebSocket,因为这玩意儿延迟低,反馈快。
  • 万一网络不给力连不上,它会自动降级到 SSE 模式。
    如果你想自己定,也可以手动改:
{
  "agents": {
    "defaults": {
      "models": {
        "openai/gpt-5.4": {
          "params": { "transport": "websocket" } 
        }
      }
    }
  }
}

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

2. 连接预热(仅限 API 模式)

为了让你发消息时感觉不到卡顿,OpenClaw 会提前把连接“热”起来:

// 想省点资源可以关掉
"params": { "openaiWsWarmup": false }
// 默认就是开着的,挺好使
"params": { "openaiWsWarmup": true }

3. 优先级插队(Priority Processing)

要是你手头有些任务特别急,可以给它申请个高优先级队列:

"params": { "serviceTier": "priority" }

这儿能填 autodefaultflex 或者 priority
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

4. 帮你的对话“瘦身”(Responses API 专属)

聊得久了,对话内容太长很占地方,OpenClaw 会自动开启 OpenAI 的服务器端压缩功能:

  • 强制把 store 设为 true。
  • 只要对话长度到了设定的坎儿(默认是 70%),它就会自动精简上下文。
    你自己也能定这个门槛:
"params": {
  "responsesServerCompaction": true,
  "responsesCompactThreshold": 120000 
}

💡 注意啊,这招只对 openai/* 这种走 Responses API 的模型管用,Codex 模式是用不了的。

给你支几招

想怎么用 建议方案
公司业务、人多、要稳、要快 API 密钥模式 + 优先级设为 priority
自己玩、有 Plus 会员 Codex 订阅(省心还省钱)
对话特别长(超过 10 万字) API 密钥模式 + 开启服务器压缩
语音助手那种实时交互 API 密钥模式 + WebSocket + 预热
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

聊到最后

OpenClaw 对 OpenAI 的支持可不只是接个接口那么简单。它搞了两套认证满足不同人的需求,还充分利用了 OpenAI 最新的 Responses API、优先级队列和上下文压缩,就是为了让你的 AI 跑得更顺溜。
无论你是追求极致控制的硬核开发者,还是只想简单省事复用订阅的普通玩家,OpenClaw 都给你把路铺好了。
别犹豫了,赶紧试试吧

  • 有 API Key 的,跑:openclaw onboard --auth-choice openai-api-key
  • 有 Plus 会员的,跑:openclaw onboard --auth-choice openai-codex
    让 GPT-5.4 成为你最强的 AI 助手。
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐