每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

废话不多说,这篇就是冲着实操去的。咱们不扯那些虚的,直接带你搞定这四点:

  1. 怎么把 Claude Code 成功装上
  2. 如何确认它现在能干活
  3. 怎么把它那颗“大脑”换成国产模型
  4. 进阶玩法:多模型怎么自动分流
    如果你是头一回捣鼓 Claude Code,听我一句劝:老老实实按顺序来,别一上来就整那些复杂的骚操作。

每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

一、搞清楚重点:我们要的是它的“工作流”,而不只是那个模型

很多人有个误区,觉得换模型就是为了换个聊天的。其实 Claude Code 最值钱的地方是它那套“在终端里横着走”的本事:

  • 直接在命令行里操作
  • 能读懂你整个项目的底细
  • 自动改代码、跑命令
  • 配合 Git 流程,像个真人程序员一样推进项目
    所以咱们的思路是:

保留 Claude Code 这种爽快的工作体验,但把底层的模型换成更便宜、更听话、在国内更好用的。
比如:

  • DeepSeek V3.2
  • 智谱 GLM 5 或 4.6
  • MiniMax-M2.5
  • 通义千问 Qwen 系列
  • 或者通过聚合平台接进来的其他模型

每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

二、先把 Claude Code 装好

2.1 走 npm 安装

先瞅瞅你电脑里有没有 Node.js:

node -v
npm -v

只要能正常蹦出版本号,那就直接开整:

npm install -g @anthropic-ai/claude-code

装完后查查岗,看装上没:

claude --version

出了版本号,就说明稳了。

2.2 官方脚本安装法

要是你不想折腾 npm,直接甩官方脚本也行。

macOS / Linux / WSL 系统

curl -fsSL https://claude.ai/install.sh | bash

Windows PowerShell

irm https://claude.ai/install.ps1 | iex

Windows CMD 命令行

curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd

装完照样得验证一下:

claude --version

每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

三、先拿官方默认状态练练手,看能不能跑通

进到你的代码文件夹里:

cd 你的项目目录
claude

头一回启动,它肯定会让你登录或者授权。
这时候先别急着切模型,得先确认这三件事:

  • 它能顺畅启动不报错
  • 能认出你项目里的文件
  • 能听懂你让它干的活
    你可以先随便丢几个指令试试:
帮我解释下这个项目的目录结构
给 utils/date.ts 写点测试用例
把这个函数改成异步 async/await 的写法
帮我找找这个模块里有没有明显的 Bug

要是这些都没问题,咱们再开始下一步。

四、最简单的办法:直接改个接口地址

这部分是全篇最干的,新手直接照抄就行。
只要对方的接口跟 Anthropic 兼容,改个环境变量就能直接把 Claude Code 拐过去。
最推荐先试这两个:

  1. DeepSeek
  2. 智谱 GLM
    因为它俩接起来最不费劲。

每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

五、接入 DeepSeek:性价比最高的起步方式

5.1 临时玩一下(关了窗口就没了)

直接在终端里把这串东西敲进去:

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的_DEEPSEEK_API_KEY
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

然后进项目里运行:

cd 你的项目目录
claude

只要它能回你话,那就说明 DeepSeek 已经上岗了。

5.2 长期有效的方法(强烈推荐)

要是你用的是 zsh,就把下面这些塞进 ~/.zshrc

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的_DEEPSEEK_API_KEY
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

写完别忘了刷新下配置:

source ~/.zshrc

要是你用的是 bash,就往 ~/.bashrc 里塞:

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的_DEEPSEEK_API_KEY
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

同样要刷新:

source ~/.bashrc

5.3 怎么看 DeepSeek 是不是真干活了?

先瞅一眼环境变量对不对:

echo $ANTHROPIC_BASE_URL
echo $ANTHROPIC_MODEL

只要能看到 deepseek-chat 和对应的 URL,那就没跑了。
再进 Claude 里发个简单的任务:

用 Python 写个 hello world 并解释每一行。

没报错、没卡死,那就是大功告成了。

六、接入智谱 GLM:国内开发者的稳妥选择

GLM 有两种接法:

  • ~/.claude/settings.json 文件
  • 还是用 shell 环境变量
    我建议你先试 JSON 那个,不行再用环境变量兜底。

6.1 通过 settings.json 配置 GLM

先把目录建好:

mkdir -p ~/.claude

打开这个文件:

nano ~/.claude/settings.json

把这段代码扔进去:

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "你的_GLM_API_KEY",
    "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
    "API_TIMEOUT_MS": "3000000",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.6",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.6"
  }
}

保存退出,然后启动:

cd 你的项目目录
claude

6.2 要是 settings.json 没反应,就上环境变量

直接轰:

export ANTHROPIC_AUTH_TOKEN=你的_GLM_API_KEY
export ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic
export API_TIMEOUT_MS=3000000
export ANTHROPIC_DEFAULT_HAIKU_MODEL=glm-4.5-air
export ANTHROPIC_DEFAULT_SONNET_MODEL=glm-4.6
export ANTHROPIC_DEFAULT_OPUS_MODEL=glm-4.6

然后开跑。想长久用就把这段也塞进 ~/.zshrc~/.bashrc

6.3 验证 GLM 接入效果

查查环境:

echo $ANTHROPIC_BASE_URL
echo $ANTHROPIC_DEFAULT_SONNET_MODEL

进去随便派个活儿:

用几句话总结一下这个仓库是干嘛的。

只要接口有动静,就算你接上了。

每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

七、MiniMax-M2.5:建议把它作为备选或者挂在路由里

说句实在话:

MiniMax-M2.5 是个好东西,但不建议作为你玩 Claude Code 的第一个“正宫”模型。
不是它不行,而是为了稳定,建议先拿 DeepSeek 或 GLM 练手,等你有经验了再把它挂上去:

  • 通过聚合平台接
  • 自己搭个兼容 API
  • 或者用下面要讲的 Claude Code Router(CCR)
    简单说,MiniMax 更适合放在一个“多模型系统”里发光发热。

八、进阶大杀器:装个 Claude Code Router (CCR)

要是你只是想“能用”,上面那些就够了。
但如果你想追求极致体验,比如:

  • 简单的活儿让便宜模型干
  • 烧脑的活儿让牛逼模型干
  • 遇到超长代码换长上下文模型
  • 一个崩了自动换另一个
    那你就得试试 CCR 了。

8.1 安装 CCR

npm install -g @musistudio/claude-code-router

看看装好没:

ccr --help

能看到一堆命令说明,就说明搞定了。

8.2 建个配置目录

mkdir -p ~/.claude-code-router
nano ~/.claude-code-router/config.json

8.3 送你一个拿来即用的最小化配置

这份配置不求全,只求能让你最快跑起来。

{
  "LOG": true,
  "API_TIMEOUT_MS": 600000,
  "NON_INTERACTIVE_MODE": false,
  "Providers": [
    {
      "name": "deepseek",
      "api_base_url": "https://api.deepseek.com/chat/completions",
      "api_key": "你的_DEEPSEEK_API_KEY",
      "models": ["deepseek-chat", "deepseek-reasoner"],
      "transformer": {
        "use": ["deepseek"],
        "deepseek-chat": {
          "use": ["tooluse"]
        }
      }
    },
    {
      "name": "glm",
      "api_base_url": "https://open.bigmodel.cn/api/paas/v4/chat/completions",
      "api_key": "你的_GLM_API_KEY",
      "models": ["glm-4.6", "glm-4.5-air"]
    }
  ],
  "Router": {
    "default": "deepseek,deepseek-chat",
    "think": "deepseek,deepseek-reasoner",
    "background": "glm,glm-4.5-air",
    "longContext": "glm,glm-4.6",
    "longContextThreshold": 60000
  }
}

这逻辑很简单:

  • 平常干活就找 deepseek-chat
  • 遇到难题让 deepseek-reasoner
  • 跑个后台任务找便宜的 glm-4.5-air
  • 文件太多了就切到 glm-4.6
    注意:不同的模型厂商脾气不一样,这就是为什么 Router 配置起来会稍微复杂点。

8.4 启动 CCR 加上 Claude Code

直接跑这个:

ccr code

你可以理解为:CCR 现在成了 Claude Code 的专职模型管家。
改了配置想重启?跑 ccr restart
想看管家界面?跑 ccr ui
想管管模型?跑 ccr model

每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

九、教你一套聪明的“模型混搭法”

别老想着一个模型用到黑,那是土豪干的事。
聪明人都是这么分的:

方案 A:极致省钱流

  • 默认干活:DeepSeek V3.2
  • 解决难题:DeepSeek Reasoner 或者 GLM 5
  • 吞长文本:GLM 5 或者通义千问
  • 后台杂事:哪个便宜用哪个

方案 B:稳扎稳打流

  • 默认干活:GLM 4.6 或 5
  • 解决难题:最强的推理型选手
  • 吞长文本:专门的长文本接口
  • 备选方案:DeepSeek V3.2

方案 C:尝鲜 MiniMax 派

  • 用 Router 接上 MiniMax-M2.5
  • 专门让它写某类代码
  • 旁边一定要留个 DeepSeek 或 GLM 备胎
    记住啊,没有最强的模型,只有最合适的任务。

十、避坑指南:遇到问题怎么办?

10.1 提示 claude: command not found

肯定是没装上,或者装了电脑没找到路。
查查 npm 把东西装哪了:

npm root -g
npm bin -g

找到了路径就把那个 bin 文件夹加到系统的 PATH 环境变量里。

每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

10.2 看到 401 报错或者认证失败

别怀疑,肯定是 API Key 没填对或者没生效。
查查环境变量:

echo $ANTHROPIC_AUTH_TOKEN

要是出来的是空的,那你肯定是写完配置没跑 source,或者文件写错地方了。

10.3 报错 404 或者模型找不到

这大概率是接口地址(Base URL)填歪了。
查查这个:

echo $ANTHROPIC_BASE_URL

很多时候不是模型不行,是你把路带偏了。

10.4 Router 配置文件报错

基本就是这几个原因:

  • JSON 少了逗号或者多了括号
  • api_base_url 抄错了
  • 模型名字对不上
    拿个在线 JSON 校验工具过一下,或者直接 cat 出来肉眼仔细对一遍。

10.5 连是连上了,但模型像个傻子

这不叫接入失败,这叫“适配不良”。可能是:

  • 这模型根本不会调用工具
  • 任务太复杂,它脑力跟不上
  • 你让它干了它不擅长的事
    所以才强调要模型分工,别指望一个模型包打天下。

每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

十一、最快上手指南(不想看长篇大论的看这里)

想现在就开始?直接选一条路走:

路线 1:最速体验版

  1. 装 Claude Codenpm install -g @anthropic-ai/claude-code
  2. 随便跑一下:进项目敲 claude 看一眼
  3. 换上 DeepSeek
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的_API_KEY
export ANTHROPIC_MODEL=deepseek-chat
  1. 重新起飞:再敲一次 claude

路线 2:专业多模型版

  1. 装好 Claude Code
  2. 装上 CCRnpm install -g @musistudio/claude-code-router
  3. 写配置:在 ~/.claude-code-router/config.json 里塞进文中的示例
  4. 一键启动ccr code

十二、给新手的最后建议

如果你是头一回折腾:

  • 单纯想试试:直接 Claude Code 配 DeepSeek 或 GLM,先玩起来再说。
  • 打算天天用:那就上 CCR,把多模型分工搞好,一定要留个备用方案。
  • 想试 MiniMax:别急,先用 DeepSeek 跑通了,再慢慢把它接进来。

十三、总结一句话

Claude Code 的灵魂是它能像队友一样帮你改代码,而接上国产模型的意义,就是让这个“队友”既便宜又懂你。
先跑通流程,再慢慢优化分工,最后上路由器。这才是最稳的开发姿势。

每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐