Cherry Studio 怎么设置 Base URL?2026 最完整的配置教程 + 踩坑实录
上周把本地 AI 客户端从 ChatBox 换到了 Cherry Studio,界面确实好看不少,多模型切换也顺手。但配置 Base URL 这步硬是折腾了大半天——官方文档写得太简略,网上教程各说各话,不少还是过时的截图。所以把自己踩坑到跑通的过程记下来,希望帮你省点时间。
核心操作:打开设置 → 模型服务商 → 选择或新建 Provider → 在「API 地址」栏填入 Base URL(如 https://api.openai.com/v1 或聚合平台地址),填入 API Key,保存即可。 下面展开讲不同场景的配置和踩过的坑。
先说结论
| 场景 | Base URL | 适合谁 |
|---|---|---|
| OpenAI 官方 | https://api.openai.com/v1 |
能直连 OpenAI 的用户 |
| Anthropic 官方 | https://api.anthropic.com |
Claude 用户 |
| 聚合平台(如 ofox.ai) | https://api.ofox.ai/v1 |
想一个 Key 用多个模型、免代理直连 |
| Azure OpenAI | https://{resource}.openai.azure.com/openai |
企业用户 |
| 本地 Ollama | http://localhost:11434/v1 |
跑本地模型 |
大多数人卡在两个地方:一是不知道 URL 结尾要不要加 /v1,二是 Provider 类型选错了。下面逐个拆解。
环境准备
- Cherry Studio 版本:v1.x 最新版(2026 年 6 月,我用的是从 GitHub Releases 下的最新包)
- 操作系统:macOS / Windows 都行,配置界面一样
- API Key:至少准备一个(官方的或聚合平台的都行)
打开 Cherry Studio 后,点左下角齿轮图标进入「设置」,左侧菜单找到「模型服务商」,这就是主战场。
方案一:直接配置 OpenAI / Anthropic 官方地址
Cherry Studio 内置了主流服务商的预设,OpenAI、Anthropic、Google Gemini 这些点进去就有。
操作步骤:
- 在「模型服务商」列表找到
OpenAI,点进去 - 「API 密钥」填你的 Key
- 「API 地址」默认已填好
https://api.openai.com/v1,不用动 - 点「检查」按钮,显示绿色对勾就成了
- 下方「模型列表」点「管理」,勾选要用的模型(GPT-5、GPT-4o 等)
Anthropic 稍有不同,Base URL 填 https://api.anthropic.com,注意不带 /v1。这是我踩的第一个坑——手贱加了 /v1,一直报 404。
# OpenAI 格式(带 /v1)
https://api.openai.com/v1 ✅
# Anthropic 格式(不带 /v1)
https://api.anthropic.com ✅
https://api.anthropic.com/v1 ❌ 会 404
方案二:配置聚合平台(一个 Key 用多个模型)
这是我现在日常在用的方案,原因很简单:同时用 GPT-5 写代码、Claude Opus 4.6 做长文档分析、DeepSeek V3 跑中文任务,分别管三个 Key 太烦了。
我目前用的是 ofox.ai,一个 AI 模型聚合平台,一个 API Key 可以调用 GPT-5、Claude Opus 4.6、Gemini 3、DeepSeek V3、Qwen 3、GLM5 等 50+ 模型,兼容 OpenAI API 协议,支持支付宝付款,按量计费。
Cherry Studio 配置步骤:
- 在「模型服务商」页面,点左下角
+号,新建服务商 - 名字随便取,我写的「ofox聚合」
- Provider 类型选
OpenAI(因为兼容 OpenAI 协议) - API 地址填:
https://api.ofox.ai/v1
- API 密钥填你在 ofox.ai 拿到的 Key
- 点「检查」,绿色对勾就 OK
- 手动添加模型:点「管理」→「添加」,模型 ID 填实际的模型名
# 常用模型 ID 示例(根据平台文档填)
gpt-5
claude-opus-4-20250918
gemini-3-pro
deepseek-chat
qwen-max
glm-5
配好之后在聊天界面切模型,下拉菜单直接选,不用来回切 Provider。
方案三:接本地 Ollama
Ollama 默认启动后监听 localhost:11434。
# Base URL 填这个
http://localhost:11434/v1
API Key 随便填个字符串就行,Ollama 不校验,比如填 ollama。然后手动添加 pull 下来的模型名,比如 llama3.3、qwen3:8b。
有一点要注意:如果 Ollama 跑在 WSL 或 Docker 里,localhost 可能不通,得换成实际 IP,比如 http://172.17.0.1:11434/v1。
踩坑记录
坑 1:URL 结尾的 /v1 到底加不加
没有统一答案,取决于服务商:
- OpenAI 协议兼容的(OpenAI 官方、聚合平台、Ollama):加
/v1 - Anthropic 官方:不加
- Azure OpenAI:不加
/v1,路径格式也完全不同
我的经验:先加 /v1 试,报 404 就去掉。
坑 2:检查通过但聊天报错
遇到过「检查」按钮显示绿色,发消息却报 model not found。原因是模型 ID 写错了——Cherry Studio 的检查只验证 Key 是否有效,不验证模型是否存在。
解决办法:去服务商的文档或控制台确认准确的模型 ID,别凭记忆瞎写。比如 Claude 的模型 ID 不是 claude-4.6,而是 claude-opus-4-20250918 这种带日期的格式。
坑 3:新建 Provider 后模型列表为空
Cherry Studio 对内置服务商会自动拉模型列表,对自定义 Provider 不会。得手动添加模型,这个交互不太明显,我一开始以为是 Bug。
坑 4:流式输出卡住
有一次配了个 Provider,普通请求没问题,开了流式输出就卡在那不动。最后发现是代理软件拦截了 SSE 长连接,关掉对应域名的拦截规则就好了。用低延迟直连的聚合平台没这个问题,不过看个人网络环境。
坑 5:多个 Provider 的模型重名
同时配了 OpenAI 官方和聚合平台,两边都有 gpt-5,聊天时下拉菜单会出现两个同名选项,很容易选错。建议给自定义 Provider 的模型加个前缀,比如 ofox/gpt-5,一眼分清。
完整配置验证脚本
不确定 Base URL 和 Key 是否正确,可以先用命令行验证,排除 Cherry Studio 本身的问题:
# 验证 OpenAI 兼容接口
curl -s https://api.ofox.ai/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-5",
"messages": [{"role": "user", "content": "说一个程序员笑话"}],
"max_tokens": 100
}' | python3 -m json.tool
返回了正常的 JSON 响应(有 choices 字段),说明 URL 和 Key 没问题,那就是 Cherry Studio 端的配置有误,再逐项排查。
# Python 验证脚本
from openai import OpenAI
client = OpenAI(
api_key="your-key",
base_url="https://api.ofox.ai/v1" # 换成你实际用的 Base URL
)
resp = client.chat.completions.create(
model="gpt-5",
messages=[{"role": "user", "content": "Hello"}],
max_tokens=50
)
print(resp.choices[0].message.content)
跑通了再回 Cherry Studio 配,心里有底。
小结
配置本身不复杂,核心就三步:选对 Provider 类型、填对 URL(注意 /v1)、填对模型 ID。但每步都有坑,尤其是模型 ID,官方文档更新经常跟不上模型发布节奏。
我现在的用法:本地跑个 Ollama 处理不敏感的日常任务,需要强模型时切到聚合平台调 GPT-5 或 Claude Opus 4.6。Cherry Studio 的多 Provider 管理在这个场景下比 ChatBox 顺手,虽然偶尔有些小毛病,够用了。
有问题评论区聊,踩到新坑会更新。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)