上周把本地 AI 客户端从 ChatBox 换到了 Cherry Studio,界面确实好看不少,多模型切换也顺手。但配置 Base URL 这步硬是折腾了大半天——官方文档写得太简略,网上教程各说各话,不少还是过时的截图。所以把自己踩坑到跑通的过程记下来,希望帮你省点时间。

核心操作:打开设置 → 模型服务商 → 选择或新建 Provider → 在「API 地址」栏填入 Base URL(如 https://api.openai.com/v1 或聚合平台地址),填入 API Key,保存即可。 下面展开讲不同场景的配置和踩过的坑。

先说结论

场景 Base URL 适合谁
OpenAI 官方 https://api.openai.com/v1 能直连 OpenAI 的用户
Anthropic 官方 https://api.anthropic.com Claude 用户
聚合平台(如 ofox.ai https://api.ofox.ai/v1 想一个 Key 用多个模型、免代理直连
Azure OpenAI https://{resource}.openai.azure.com/openai 企业用户
本地 Ollama http://localhost:11434/v1 跑本地模型

大多数人卡在两个地方:一是不知道 URL 结尾要不要加 /v1,二是 Provider 类型选错了。下面逐个拆解。

环境准备

  • Cherry Studio 版本:v1.x 最新版(2026 年 6 月,我用的是从 GitHub Releases 下的最新包)
  • 操作系统:macOS / Windows 都行,配置界面一样
  • API Key:至少准备一个(官方的或聚合平台的都行)

打开 Cherry Studio 后,点左下角齿轮图标进入「设置」,左侧菜单找到「模型服务商」,这就是主战场。

方案一:直接配置 OpenAI / Anthropic 官方地址

Cherry Studio 内置了主流服务商的预设,OpenAI、Anthropic、Google Gemini 这些点进去就有。

操作步骤:

  1. 在「模型服务商」列表找到 OpenAI,点进去
  2. 「API 密钥」填你的 Key
  3. 「API 地址」默认已填好 https://api.openai.com/v1,不用动
  4. 点「检查」按钮,显示绿色对勾就成了
  5. 下方「模型列表」点「管理」,勾选要用的模型(GPT-5、GPT-4o 等)

Anthropic 稍有不同,Base URL 填 https://api.anthropic.com,注意不带 /v1。这是我踩的第一个坑——手贱加了 /v1,一直报 404。

# OpenAI 格式(带 /v1)
https://api.openai.com/v1 ✅

# Anthropic 格式(不带 /v1)
https://api.anthropic.com ✅
https://api.anthropic.com/v1 ❌ 会 404

方案二:配置聚合平台(一个 Key 用多个模型)

这是我现在日常在用的方案,原因很简单:同时用 GPT-5 写代码、Claude Opus 4.6 做长文档分析、DeepSeek V3 跑中文任务,分别管三个 Key 太烦了。

我目前用的是 ofox.ai,一个 AI 模型聚合平台,一个 API Key 可以调用 GPT-5、Claude Opus 4.6、Gemini 3、DeepSeek V3、Qwen 3、GLM5 等 50+ 模型,兼容 OpenAI API 协议,支持支付宝付款,按量计费。

Cherry Studio 配置步骤:

  1. 在「模型服务商」页面,点左下角 + 号,新建服务商
  2. 名字随便取,我写的「ofox聚合」
  3. Provider 类型选 OpenAI(因为兼容 OpenAI 协议)
  4. API 地址填:
https://api.ofox.ai/v1
  1. API 密钥填你在 ofox.ai 拿到的 Key
  2. 点「检查」,绿色对勾就 OK
  3. 手动添加模型:点「管理」→「添加」,模型 ID 填实际的模型名
# 常用模型 ID 示例(根据平台文档填)
gpt-5
claude-opus-4-20250918
gemini-3-pro
deepseek-chat
qwen-max
glm-5

Base URL: api.ofox.ai/v1

Cherry Studio

ofox.ai 聚合网关

GPT-5

Claude Opus 4.6

Gemini 3

DeepSeek V3

GLM5 / Qwen 3

配好之后在聊天界面切模型,下拉菜单直接选,不用来回切 Provider。

方案三:接本地 Ollama

Ollama 默认启动后监听 localhost:11434

# Base URL 填这个
http://localhost:11434/v1

API Key 随便填个字符串就行,Ollama 不校验,比如填 ollama。然后手动添加 pull 下来的模型名,比如 llama3.3qwen3:8b

有一点要注意:如果 Ollama 跑在 WSL 或 Docker 里,localhost 可能不通,得换成实际 IP,比如 http://172.17.0.1:11434/v1

踩坑记录

坑 1:URL 结尾的 /v1 到底加不加

没有统一答案,取决于服务商:

  • OpenAI 协议兼容的(OpenAI 官方、聚合平台、Ollama):加 /v1
  • Anthropic 官方:不加
  • Azure OpenAI:不加 /v1,路径格式也完全不同

我的经验:先加 /v1 试,报 404 就去掉。

坑 2:检查通过但聊天报错

遇到过「检查」按钮显示绿色,发消息却报 model not found。原因是模型 ID 写错了——Cherry Studio 的检查只验证 Key 是否有效,不验证模型是否存在。

解决办法:去服务商的文档或控制台确认准确的模型 ID,别凭记忆瞎写。比如 Claude 的模型 ID 不是 claude-4.6,而是 claude-opus-4-20250918 这种带日期的格式。

坑 3:新建 Provider 后模型列表为空

Cherry Studio 对内置服务商会自动拉模型列表,对自定义 Provider 不会。得手动添加模型,这个交互不太明显,我一开始以为是 Bug。

坑 4:流式输出卡住

有一次配了个 Provider,普通请求没问题,开了流式输出就卡在那不动。最后发现是代理软件拦截了 SSE 长连接,关掉对应域名的拦截规则就好了。用低延迟直连的聚合平台没这个问题,不过看个人网络环境。

坑 5:多个 Provider 的模型重名

同时配了 OpenAI 官方和聚合平台,两边都有 gpt-5,聊天时下拉菜单会出现两个同名选项,很容易选错。建议给自定义 Provider 的模型加个前缀,比如 ofox/gpt-5,一眼分清。

完整配置验证脚本

不确定 Base URL 和 Key 是否正确,可以先用命令行验证,排除 Cherry Studio 本身的问题:

# 验证 OpenAI 兼容接口
curl -s https://api.ofox.ai/v1/chat/completions \
 -H "Authorization: Bearer YOUR_API_KEY" \
 -H "Content-Type: application/json" \
 -d '{
 "model": "gpt-5",
 "messages": [{"role": "user", "content": "说一个程序员笑话"}],
 "max_tokens": 100
 }' | python3 -m json.tool

返回了正常的 JSON 响应(有 choices 字段),说明 URL 和 Key 没问题,那就是 Cherry Studio 端的配置有误,再逐项排查。

# Python 验证脚本
from openai import OpenAI

client = OpenAI(
 api_key="your-key",
 base_url="https://api.ofox.ai/v1" # 换成你实际用的 Base URL
)

resp = client.chat.completions.create(
 model="gpt-5",
 messages=[{"role": "user", "content": "Hello"}],
 max_tokens=50
)
print(resp.choices[0].message.content)

跑通了再回 Cherry Studio 配,心里有底。

小结

配置本身不复杂,核心就三步:选对 Provider 类型、填对 URL(注意 /v1)、填对模型 ID。但每步都有坑,尤其是模型 ID,官方文档更新经常跟不上模型发布节奏。

我现在的用法:本地跑个 Ollama 处理不敏感的日常任务,需要强模型时切到聚合平台调 GPT-5 或 Claude Opus 4.6。Cherry Studio 的多 Provider 管理在这个场景下比 ChatBox 顺手,虽然偶尔有些小毛病,够用了。

有问题评论区聊,踩到新坑会更新。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐