最近在做一个网站项目,用的是AI编程神器ClaudeCode。对于我这种古法编程的老炮来说,像是刘姥姥进大观园,体验很惊艳。

Claude 在国内用,API 其实不是很友好,除了 Claude 官方的模型,我能用其他 AI 模型吗?需要用Claude、GPT、Gemini等有什么好的方案吗?这篇文章跟大家分享一下,使用Claude Code, 配置国内API的经验。

对Claude Code还不熟悉的伙伴儿,推荐一个学习文档:Claude Code入门和实战

图片

国内主流大模型接入

本章节会详细教你如何配置多个国内主流 AI 模型的 API,让 Claude Code 支持:

厂商/品牌

简介

API 申请入口(点击即达)

DeepSeek(国产高性价比)

官方模型:deepseek-chat / deepseek-reasoner

https://platform.deepseek.com/api_keys

阿里百炼(通义千问)

阿里云大模型统一入口,支持千问、GLM、Kimi 、MiniMax 等最新版本模型

https://bailian.console.aliyun.com

GLM(智谱清言)

清华系 ChatGLM 系列,支持 GLM-4、GLM-3-Turbo 等

https://open.bigmodel.cn

MiniMax

国产多模态,支持文本、语音、图像混合调用

https://platform.minimaxi.com

进入对应控制台后,注册/登录 → 完成实名认证 → 创建 API Key 即可开始调用。

DeepSeek 接入 Claude Code

需要的信息:

  • API key: https://platform.deepseek.com/api_keys 申请 API keys。

  • BASE_URL:API 请求的 URL 为 https://api.deepseek.com/anthropic。

环境变量中配置

安装 Claude Code 后,我们在终端中设置以下环境变量:

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=${DEEPSEEK_API_KEY} # 这里记得设置你申请的 API key
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

参数说明:

  • API_TIMEOUT_MS=600000:设置 10 分钟超时,防止输出过长触发客户端超时

  • ANTHROPIC_MODEL:指定使用 deepseek-chat 模型

  • CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1:禁用非必要流量

然后进入项目目录,执行 claude 命令,即可开始使用了。

cd my-project
claude

图片

启动 Claude Code 后,指定使用 DeepSeek:

claude --model deepseek-chat

或在交互模式中切换:

/model deepseek-chat

输入 /model 可以查看支持的模型:

图片

参考文档:https://api-docs.deepseek.com/zh-cn/guides/anthropic_api

阿里百炼接入 Claude Code

阿里云百炼的通义千问系列模型支持 Anthropic API 兼容接口,通过修改以下参数,即可在 Claude Code 中调用通义千问系列模型。

  • ANTHROPIC_API_KEY(或 ANTHROPIC_AUTH_TOKEN):替换为百炼 API Key,申请地址:https://bailian.console.aliyun.com/cn-beijing/?tab=model#/api-key。

  • ANTHROPIC_BASE_URL:替换为百炼的兼容端点地址 https://dashscope.aliyuncs.com/apps/anthropic。

  • 可以直接购买资源包,这样用起来更划算:https://cn.aliyun.com/benefit?from_alibabacloud=&userCode=i5mn5r7m

  • 模型名称:替换为百炼支持的模型名称(例如 qwen3-max、qwen3-coder-plus等)

  • 百炼的 Coding Plan 套餐:https://www.aliyun.com/benefit/scene/codingplan

  • 兼容 Anthropic API 协议:

    • Base URL:https://coding.dashscope.aliyuncs.com/apps/anthropic

    • API Key:填入 Coding Plan 套餐专属 API Key

    • Model:qwen3-coder-plus

macOS/Linux:

创建并打开配置文件 ~/.claude/settings.json。

~ 代表用户主目录,如果 .claude 目录不存在,需要先行创建,可在终端执行 mkdir -p ~/.claude 来创建。

编辑配置文件:

vim ~/.claude/settings.json

将 YOUR_API_KEY 替换为 Coding Plan 套餐专属 API Key。

{
"env": {
"ANTHROPIC_AUTH_TOKEN": "YOUR_API_KEY",
"ANTHROPIC_BASE_URL": "https://coding.dashscope.aliyuncs.com/apps/anthropic",
"ANTHROPIC_MODEL": "qwen3-coder-plus"
    }
}

重新打开一个新的终端使环境变量配置生效。

Windows:

在 CMD 中运行以下命令,设置环境变量:

setx ANTHROPIC_AUTH_TOKEN "YOUR_API_KEY"
setx ANTHROPIC_BASE_URL "https://coding.dashscope.aliyuncs.com/apps/anthropic"
setx ANTHROPIC_MODEL "qwen3-coder-plus"

用套餐专属 API Key 替换 YOUR_API_KEY。

打开一个新的 CMD 窗口,运行以下命令,检查环境变量是否生效。

echo %ANTHROPIC_AUTH_TOKEN%

echo %ANTHROPIC_BASE_URL%

echo %ANTHROPIC_MODEL%

在 PowerShell 中运行以下命令,设置环境变量:

用套餐专属 API Key 替换 YOUR_API_KEY


[Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "YOUR_API_KEY", [EnvironmentVariableTarget]::User)
[Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "https://coding.dashscope.aliyuncs.com/apps/anthropic", [EnvironmentVariableTarget]::User)
[Environment]::SetEnvironmentVariable("ANTHROPIC_MODEL", "qwen3-coder-plus", [EnvironmentVariableTarget]::User)

打开一个新的 PowerShell 窗口,运行以下命令,检查环境变量是否生效。

echo $env:ANTHROPIC_AUTH_TOKEN

echo $env:ANTHROPIC_BASE_URL

echo $env:ANTHROPIC_MODEL

通义千问系列模型

对话期间,执行 /model <模型名称> 命令切换模型。

/model qwen3-coder-plus

也可以在项目根目录创建 .claude/settings.json 文件中,并写入模型配置信息永久配置。

图片

{
"env": {
"ANTHROPIC_MODEL": "qwen3-coder-plus",
"ANTHROPIC_SMALL_FAST_MODEL": "qwen-flash"
  }
}

启动 Claude,可以看到配置信息:

图片


智谱大模型接入 Claude Code

这部分我们使用 ~/.claude/settings.json 文件来配置大模型,开始前需要到官方平台获取 API key:GLM Coding Plan。

编辑或新增 Claude Code 配置文件 ~/.claude/settings.json ,新增或修改里面的 env 字段

注意替换里面的your_zhipu_api_key 为您上一步获取到的 API Key
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your_zhipu_api_key",
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"API_TIMEOUT_MS": "3000000",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1
    }
}

运行 claude 启动 Claude Code,输入 /status 确认模型状态:

图片

如果不是可以输入 /config 来切换模型。

图片

国外大模型接入:中转API

国内接入Claude、Gemini、GPT等一梯队的大模型,最优方案就是中转API。这种没有官方接入的诸多限制(不需要梯子,0封号风险),价格实在是很香。使用中转API也可以同时一次接入国内的主流的大模型,如豆包、Qwen、DeepSeek、kimi、GLM、MinMax等,价格比直连还优惠,最大的优势是没有金额限制、按需使用、永不过期。接入方法,可以参考:Claude Code使用中转 API配置

API 管理工具

平台一多,配置起来就麻烦,我们可以使用第三方工具 CC Switch 可以帮我们轻松管理这几个热门工具的 API 配置:https://github.com/farion1231/cc-switch/,Windows / macOS / Linux 全支持。

CC Switch 是一个 Claude Code / Codex / Gemini CLI / OpenClaw 的全方位辅助工具。

CC Switch 可以帮我们轻松管理这几个热门工具的 API 配置,就好比给你的开发工具箱来了个智能整理助手,所有工具的配置都能在它这有序管理。配置参考:「CC Switch 一键切换AI API」。

对了,基于日常的AI学习和实践,我整理了个人开源知识库「AI知识和应用库」持续更新中,欢迎阅读和共建。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐