你可能也踩过这些坑:

  • 项目快提测了,Claude API 突然超时,重试半天还是报错
  • 想临时换一个中转站兜底,结果又要改一遍 base_urlapi_key、模型名
  • 一个渠道支持 Claude,不支持 Gemini;另一个支持 GPT,不支持你当前模型
  • 同一套代码在本地能跑,上线后因为接口抖动变得不稳定
  • 团队里每个人都在改自己的接口配置,排障时根本对不上环境

最难受的是:这些问题不是业务逻辑问题,却总在关键时间点拖慢你。

我上周帮朋友排查项目时就遇到了同样的情况:接口三天两头超时、换渠道要改代码、模型还对不上。后来我给他改成了 OpenClaw + CC Switch 这套本地网关方案,现在只要在界面里点一下,就能切渠道,业务代码几乎不用动。

这篇教程会带你把完整链路跑通:

你的代码 → OpenClaw 本地网关 → CC Switch 渠道管理 → 中转站 → AI 模型

全程按步骤走,通常 10 分钟左右就能完成。


你会得到什么

配置完成后,你可以直接获得这 4 个收益:

  1. 接口层和业务层解耦:渠道变化不再反复改业务代码
  2. 故障秒切换:某个渠道抖动时,快速切到备用渠道
  3. 模型更灵活:同一项目内按任务切 Claude/GPT/Gemini
  4. 排障更集中:统一在本地网关日志里看问题

工具准备(1 分钟)

你需要准备 3 个东西:

  • OpenClaw:本地 API 网关,负责转发请求
  • CC Switch:渠道管理工具,负责管理多个中转站配置
  • 可用中转站账号:本文用 88API 演示(同一个 Key 可切多个主流模型)

第一步:安装 CC Switch,并把供应商账号加进去

CC Switch 是桌面端工具,你可以把多个供应商配置都收敛到一个界面里,后续切换只点按钮。

1)下载安装

去 GitHub Release 页面下载对应系统版本:

<https://github.com/farion1231/cc-switch/releases>

下载后按常规方式安装即可,不需要额外环境。

2)添加供应商

打开 CC Switch,进入「供应商管理」,然后:

  1. 点击「添加供应商」
  2. 填入以下信息:
    • 供应商名称:自定义,例如 88API
    • API Base URLhttps://api.88api.shop
    • API Key:在控制台创建后复制
  3. 点击「确认添加」
  4. 在供应商列表中点击「设为默认」

预期结果:你可以在列表里看到新增供应商,并且状态为默认。

⚠️ 如果你有多个供应商,重复上面步骤依次添加即可。后续切换只需要改默认项。


第二步:安装 OpenClaw,并关联 CC Switch

OpenClaw 是本地网关核心。它在你的机器上监听一个端口,所有请求先进本地,再由它转发到 CC Switch 当前默认渠道。

1)检查环境(Node.js ≥ 18)

# 检查 Node.js 版本
node -v

# 检查 npm 版本
npm -v

预期结果:两条命令都能输出版本号。

2)安装 OpenClaw

# 全局安装 OpenClaw
npm install -g openclaw@latest

# 验证安装
openclaw --version

预期结果:终端输出版本号,说明安装成功。

3)执行初始化引导

# 进入初始化流程
openclaw onboard

按提示完成:

  • 选择 Chat 模式
  • 设置默认模型(后面可改)
  • 关联 CC Switch 已配置的供应商

预期结果:初始化完成后,OpenClaw 已能读取渠道配置。

⚠️ 初始化时选哪个模型不是关键,后续请求里你仍可按需指定模型。


第三步:启动本地网关并验证整条链路

1)启动 Gateway

# 在本地 18789 端口启动网关
openclaw gateway --port 18789

预期结果:终端出现运行状态日志,网关开始监听端口。

2)打开控制台

浏览器访问:

<http://127.0.0.1:18789/>

你会看到请求日志、渠道状态和模型信息。

3)用 SDK 发起一次测试请求

from openai import OpenAI

# 把 base_url 指向本地 OpenClaw 网关
client = OpenAI(
    api_key="your-api-key-here",
    base_url="<http://127.0.0.1:18789/v1>"
)

response = client.chat.completions.create(
    model="claude-opus-4-6",
    messages=[
        {"role": "user", "content": "你好,请介绍一下你自己。"}
    ]
)

print(response.choices[0].message.content)

预期结果:终端打印模型回复,说明链路打通:

你的代码 -> OpenClaw Gateway -> CC Switch -> 中转站 -> AI 模型

到这里,最难的一段已经过了。


进阶:不重启服务,动态切换渠道

这一步是这套方案真正省心的地方。

在 CC Switch 里切换默认供应商后,通常不需要重启 Gateway,就能把后续请求切到新渠道。适合这些场景:

  • 故障切换:当前渠道波动时快速兜底
  • 模型切换:不同任务切不同模型
  • 成本控制:按价格/配额分流

操作很简单:在供应商列表里点目标渠道的「设为默认」。


常见问题快排(建议先看这里)

1)端口被占用

  • 现象:Gateway 启动失败,提示端口不可用
  • 处理:换一个端口,比如 -port 18790,并同步修改 base_url

2)401 认证失败

  • 现象:请求返回 Unauthorized
  • 处理:确认 API Key 是否有效、是否复制完整、渠道是否有该模型权限

3)有日志但无回复

  • 现象:请求能到网关,但模型不返回内容
  • 处理:先看 OpenClaw 控制台日志,再检查模型名是否和渠道支持列表一致

结语

现在你可以直接把项目里的 base_url 改成:

<http://127.0.0.1:18789/v1>

然后跑一轮真实请求,感受下差别。

这套方案最大的价值,不只是“能调用模型”,而是把接口稳定性、渠道切换、排障路径统一到本地网关这一层。后续你要做模型对比、渠道容灾或成本优化,都会轻松很多。

如果你在配置过程中遇到具体报错,把错误信息和日志片段贴出来,我可以按你的现场环境帮你快速定位。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐