上周 Claude 4.6 刚上线,我第一时间想在 Cursor 里用上,结果发现 Cursor 自带的模型列表更新总是慢半拍。折腾了大半天,终于把自定义 API 配置这条路跑通了。核心方法是:在 Settings → Models 里添加自定义模型名称,OpenAI API Key 栏填入你的 Key,然后把 Override OpenAI Base URL 改成你实际用的 API 地址。支持 OpenAI 兼容协议的服务都能这样接入,Claude 4.6、GLM-5、DeepSeek V3 这些都行。

下面把我实测过的 3 种方案都写出来,包括踩的坑。

先说结论

方案 适用场景 配置难度 模型覆盖 稳定性
方案一:Cursor 内置模型 只用 GPT-5/Claude 4.6 基础款 有限
方案二:填官方 API Key 想用自己的 OpenAI/Anthropic 额度 ⭐⭐ 单厂商 中(看网络)
方案三:聚合 API 平台 想一个 Key 切换 50+ 模型 ⭐⭐ 最广

我个人最终选了方案三,原因后面细说。

环境准备

  • Cursor 版本:0.48.x 及以上(2026 年 6 月最新版)
  • 操作系统:macOS / Windows / Linux 均可
  • 至少一个可用的 API Key

打开 Cursor 设置:Cmd/Ctrl + Shift + P → 输入 Cursor Settings → 回车,或者点右上角齿轮图标。

方案一:使用 Cursor 内置模型

最简单的方案,啥都不用配。Cursor Pro 订阅用户自带 GPT-5 和 Claude 4.6 Sonnet 的额度。

打开 Settings → Models,能看到一堆预置模型:

✅ gpt-5
✅ claude-4.6-sonnet
✅ claude-4.6-opus(Pro 用户 + 慢速请求)
✅ gemini-3-pro

直接在聊天窗口底部的模型选择器里切就行。

问题是 Cursor 内置的模型列表更新节奏跟不上。GLM-5 开源好几天了,Cursor 还没加进去。想用 DeepSeek V3 写简单代码省点钱,内置列表里也没有。

所以大部分时候还是得走自定义配置。

方案二:填官方 API Key + 自定义模型

适合你已经有 OpenAI 或 Anthropic 官方 Key 的情况。

步骤 1:拿到 API Key

去 OpenAI Platform 或 Anthropic Console 创建一个 Key,这步不赘述。

步骤 2:在 Cursor 中配置

打开 Cursor SettingsModels

  1. OpenAI API Key 那栏填入你的 Key
  2. Override OpenAI Base URL 填入对应地址:
  • OpenAI 官方:https://api.openai.com/v1
  • Anthropic(需要兼容层):不能直接填,Cursor 对 Anthropic 有单独的 Key 输入框
  1. 点底部的 + Add model,手动输入模型名,比如 gpt-5gpt-5-mini

步骤 3:验证

在 Chat 或 Composer 里选刚加的模型,随便问个问题,能回复就通了。

// 测试 prompt
请用 Python 写一个快速排序,要求带类型注解

踩坑记录

坑 1:Base URL 末尾的 /v1 别漏。 我第一次填的 https://api.openai.com,死活报 404,加上 /v1 就好了。Cursor 不会自动帮你补这个路径。

坑 2:Anthropic 的 Key 不能填在 OpenAI Key 的位置。 Cursor 有单独的 “Anthropic API Key” 输入框,往下翻翻就能看到。填错位置会报 401 Unauthorized,报错信息还贼模糊,不告诉你是哪个 Key 的问题。

坑 3:模型名必须跟 API 端完全一致。 我手动加了个 claude-4.6,结果 Anthropic 那边的模型 ID 是 claude-sonnet-4-6-20260601(举例),名字对不上就报 model_not_found。每次都得去官方文档查准确的模型 ID,挺烦的。

方案三:用聚合 API 平台(我的最终方案)

折腾了方案二大半天后,我发现一个根本性的问题:同时想用 GPT-5 写逻辑、Claude 4.6 做 code review、DeepSeek V3 处理简单 task,就得同时管三家的 Key、三家的账单、三家的模型命名规则。太累了。

最后换了个思路——用聚合 API 平台,一个 Key 搞定所有模型。我现在用的是 ofox.ai,它兼容 OpenAI 协议,改个 base_url 就能在 Cursor 里接入 50+ 模型,Claude 4.6、GPT-5、GLM-5、DeepSeek V3、Gemini 3 这些最新的都有。

配置步骤

第 1 步:拿 Key

ofox.ai 注册,在控制台创建一个 API Key。

第 2 步:Cursor 里配置

打开 Cursor SettingsModels

OpenAI API Key: sk-xxxxxxxxxxxxxxxx(ofox 的 Key)
Override OpenAI Base URL: https://api.ofox.ai/v1

第 3 步:添加模型

+ Add model,依次加你想用的模型:

claude-sonnet-4.6
claude-opus-4.6
gpt-5
deepseek-v3
glm-5
gemini-3-pro
qwen-3-max

第 4 步:验证

在 Cursor Chat 里选 claude-sonnet-4.6,发一条消息测试:

用 TypeScript 写一个防抖函数,支持 leading 和 trailing 参数

能正常返回就 OK 了。

完整调用链路

OpenAI 兼容协议

路由分发

路由分发

路由分发

路由分发

路由分发

Cursor 编辑器

ofox.ai 聚合网关

Claude 4.6

GPT-5

DeepSeek V3

GLM-5

Gemini 3

整个链路对 Cursor 来说就是在跟一个 OpenAI 兼容接口通信,完全无感。

用代码验证(脱离 Cursor 也能用)

想在终端里先验证 Key 能不能用,跑这段 Python:

from openai import OpenAI

client = OpenAI(
 api_key="sk-your-ofox-key",
 base_url="https://api.ofox.ai/v1"
)

# 测试 Claude 4.6
response = client.chat.completions.create(
 model="claude-sonnet-4.6",
 messages=[
 {"role": "user", "content": "用 Python 实现一个 LRU Cache,要求 O(1) 时间复杂度"}
 ],
 stream=True
)

for chunk in response:
 if chunk.choices[0].delta.content:
 print(chunk.choices[0].delta.content, end="")

跑通了再回 Cursor 里配,少走弯路。

这个方案的踩坑

坑 1:Cursor 有时候会缓存旧的 Base URL。 改完 URL 之后最好重启一下(Cmd+Shift+PReload Window),不然可能还是请求旧地址。

坑 2:Composer 模式下模型名大小写敏感。 我在 Add model 时写了 Claude-Sonnet-4.6,API 那边识别不了,改成全小写 claude-sonnet-4.6 就好了。建议统一用小写加短横线。

坑 3:长上下文场景偶尔超时。 喂一个大文件让它重构时偶尔会断。在 ~/.cursor/config.json 里没找到超时配置项,最后的解决办法是把大文件拆成小块分步喂。

三种方案对比

对比项 内置模型 官方 Key 聚合平台
配置复杂度 零配置 中等 低(改一次 URL)
可用模型数 ~10个 单厂商全量 50+ 跨厂商
模型更新速度 依赖 Cursor 更新 实时 实时
计费方式 Cursor 订阅 各家分别计费 统一计费
Key 管理 不需要 多个 Key 一个 Key
适合谁 轻度使用 单一厂商重度用户 多模型切换用户

一些实用 Tips

1. 善用 Cursor Rules 配合不同模型

在项目根目录建一个 .cursorrules 文件,针对不同模型调整 prompt 策略:

# .cursorrules
- 代码生成优先使用 TypeScript strict 模式
- 所有函数必须有 JSDoc 注释
- 错误处理使用 Result 模式而非 try-catch

2. Chat vs Composer 选模型的策略

我的习惯:Chat 用 Claude 4.6 Sonnet(快,适合问答和小改动),Composer 用 Claude 4.6 Opus(慢但准,适合多文件重构)。DeepSeek V3 留给写测试用例和简单脚本,便宜够用。

3. 快捷键绑定模型切换

Cursor 目前没有原生的"快捷键切模型"功能,但 Cmd+. 可以快速打开模型选择器,比鼠标点快多了。

小结

Cursor 的自定义 API 配置藏得不算深,但文档写得稀烂。模型名大小写、Base URL 要不要带 /v1、Anthropic Key 填哪个框,这些细节全靠自己踩。

我现在的工作流很简单:ofox.ai 一个 Key 配到 Cursor 里,日常在 Claude 4.6 Sonnet、GPT-5、DeepSeek V3 之间来回切。ofox.ai 是一个 AI 模型聚合平台,兼容 OpenAI 协议,低延迟直连,支持支付宝付款按量计费,对多模型切换的场景来说确实省了不少管理成本。

配置一次,后面新模型出来只要 Add model 就行,不用再折腾 Key 和地址了。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐