导读:OpenAI Codex 作为新一代 AI 智能编程助手,凭借其强大的自然语言转代码能力,成为了开发者的效率神器。但对于国内开发者而言,直接调用海外 API 往往面临网络延迟与支付门槛。现在,借助腾讯云大模型 Token Plan,你可以通过国内稳定的 API 代理服务,零门槛、低成本地在 Codex 中使用顶尖的大模型能力。本文将手把手教你完成配置。

核心概念:为什么是 Token Plan + Codex?

Codex 基于 GPT 架构,能够理解自然语言并生成 Python、JavaScript、Java 等多种语言的高质量代码。 腾讯云 Token Plan 则提供了一种灵活的“按 Token 计费”的大模型调用套餐,兼容 OpenAI 的 API 格式,起到了绝佳的桥梁作用。

⚠️ 关键避坑提示:OpenAI 最新版的 Codex 已经全面转向 Responses API,不再支持传统的 Chat/Completions API。而目前腾讯云 Token Plan 适配的是 Chat/Completions 接口。因此,我们必须安装支持该接口的旧版本 Codex(如 0.80.0),这是打通两者连接的核心关键!

🛠️ 第一步:前置准备

在开始动手之前,请确保你已完成以下两项操作:

  1. 订阅 Token Plan 套餐:前往腾讯云控制台开通并订阅 Token Plan。
  2. 获取密钥与模型:在控制台获取你的专属 API Key,并查看当前 Token Plan 支持的模型列表(Model ID),后续配置需要用到。

📦 第二步:安装 Codex (0.80.0 版本)

正如前文所述,我们需要指定安装兼容 Chat/Completions API 的 0.80.0 版本。

打开你的终端(Terminal),执行以下 npm 全局安装命令:

BASH

npm install -g @openai/codex@0.80.0

安装完成后,通过查看版本号来验证是否安装成功:

BASH

codex --version

如果终端输出 0.80.0,说明安装无误,可以继续。


⚙️ 第三步:配置 Token Plan 路由

接下来,我们需要修改 Codex 的配置文件,告诉它不要去请求 OpenAI 的官方服务器,而是把请求发送到腾讯云 Token Plan 的 endpoint。

  1. 找到(或新建)配置文件

    • macOS / Linux~/.codex/config.toml
    • WindowsC:\Users\<你的用户名>\.codex\config.toml (如果路径下没有 .codex 文件夹或 config.toml 文件,手动新建即可)
  2. 写入配置内容: 将以下内容完整复制并粘贴到 config.toml 中。注意:请将 <MODEL_ID> 替换为你在腾讯云 Token Plan 控制台获取的模型名称(例如 gpt-4o-mini 等)

TOML

model_provider = "Lkeap_Token_Plan"
model = "<MODEL_ID>"

[model_providers.Lkeap_Token_Plan]
name = "Lkeap_Token_Plan"
base_url = "https://api.lkeap.cloud.tencent.com/plan/v3"
env_key = "TP_API_KEY"
wire_api = "chat"

💡 解析:base_url 指向了腾讯云的服务地址,wire_api = "chat" 强制 Codex 使用 Chat/Completions 协议,env_key 则定义了读取哪个环境变量作为 API Key。


🔑 第四步:配置环境变量

出于安全考虑,我们不把 API Key 硬编码在配置文件中,而是通过环境变量注入。请将下面的 USER_API_KEY 替换为你自己的 Token Plan API Key。

Windows 用户(CMD):

md
setx TP_API_KEY "USER_API_KEY"

# 设置后,务必关闭当前 CMD 窗口,重新打开一个新窗口,然后执行以下命令检查是否生效:
echo %TP_API_KEY%

Windows 用户(PowerShell):

POWERSHELL

[Environment]::SetEnvironmentVariable("TP_API_KEY", "USER_API_KEY", "User")

# 设置后重新打开 PowerShell,检查是否生效:
$env:TP_API_KEY

macOS / Linux 用户:

BASH

# 临时生效(仅当前终端窗口)
export TP_API_KEY="USER_API_KEY"

# 永久生效(推荐,将其追加到你的 ~/.zshrc 或 ~/.bash_profile 中)
echo 'export TP_API_KEY="USER_API_KEY"' >> ~/.zshrc
source ~/.zshrc


🚀 第五步:启动与使用

万事俱备,现在可以让 Codex 跑起来了!

  1. 在终端中输入以下命令启动 Codex:

    BASH

    codex
    
  2. 启动后,Codex 可能会提示你进行一些初始化设置,遇到提示直接选择 Skip 跳过
  3. 接着,选择采用 API Key 的方式使用 Codex,输入你刚才配置的套餐 API Key(部分版本如果成功读取了环境变量,可能会自动跳过此步)。

现在,你可以尝试输入一条指令,例如:

“用 Python 写一个快速排序算法,并加上中文注释”

看到代码顺畅生成,恭喜你,你已经成功让 Codex 通过腾讯云 Token Plan 跑起来了!🎉


🙋‍♂️ 常见问题 (FAQ)

Q:为什么我安装了最新版 Codex,配置完报错 API not supported A:这就是前文强调的重点,最新版 Codex 使用的是 Responses API,与 Token Plan 当前支持的 Chat API 不兼容。请务必卸载最新版,重新执行 npm install -g @openai/codex@0.80.0

Q:Windows 下配置了环境变量,但 Codex 依然提示 API Key 无效? A:setx 命令修改的环境变量不会在当前命令行窗口立即生效。你必须关掉当前窗口,新开一个 CMD/PowerShell 再启动 Codex。

Q:怎么知道我可以用哪些 <MODEL_ID> A:请登录腾讯云控制台,进入 Token Plan 产品页面,查看你当前套餐支持的模型列表,常见的有 gpt-4ogpt-4o-mini 等,必须严格填写控制台支持的模型标识。


文档更新时间:2026-04-17 声明:本文基于腾讯云官方文档整理,OpenAI Codex 及 GPT 为 OpenAI 公司产品,腾讯云 Token Plan 为腾讯云产品。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐