手把手教你用 Claude Code 白嫖 DeepSeek、智谱GLM、MiniMax 等国产大模型!
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
废话不多说,这篇就是冲着实操去的。咱们不扯那些虚的,直接带你搞定这四点:
- 怎么把 Claude Code 成功装上
- 如何确认它现在能干活
- 怎么把它那颗“大脑”换成国产模型
- 进阶玩法:多模型怎么自动分流
如果你是头一回捣鼓 Claude Code,听我一句劝:老老实实按顺序来,别一上来就整那些复杂的骚操作。
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
一、搞清楚重点:我们要的是它的“工作流”,而不只是那个模型
很多人有个误区,觉得换模型就是为了换个聊天的。其实 Claude Code 最值钱的地方是它那套“在终端里横着走”的本事:
- 直接在命令行里操作
- 能读懂你整个项目的底细
- 自动改代码、跑命令
- 配合 Git 流程,像个真人程序员一样推进项目
所以咱们的思路是:
保留 Claude Code 这种爽快的工作体验,但把底层的模型换成更便宜、更听话、在国内更好用的。
比如:
- DeepSeek V3.2
- 智谱 GLM 5 或 4.6
- MiniMax-M2.5
- 通义千问 Qwen 系列
- 或者通过聚合平台接进来的其他模型
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
二、先把 Claude Code 装好
2.1 走 npm 安装
先瞅瞅你电脑里有没有 Node.js:
node -v
npm -v
只要能正常蹦出版本号,那就直接开整:
npm install -g @anthropic-ai/claude-code
装完后查查岗,看装上没:
claude --version
出了版本号,就说明稳了。
2.2 官方脚本安装法
要是你不想折腾 npm,直接甩官方脚本也行。
macOS / Linux / WSL 系统
curl -fsSL https://claude.ai/install.sh | bash
Windows PowerShell
irm https://claude.ai/install.ps1 | iex
Windows CMD 命令行
curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
装完照样得验证一下:
claude --version
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
三、先拿官方默认状态练练手,看能不能跑通
进到你的代码文件夹里:
cd 你的项目目录
claude
头一回启动,它肯定会让你登录或者授权。
这时候先别急着切模型,得先确认这三件事:
- 它能顺畅启动不报错
- 能认出你项目里的文件
- 能听懂你让它干的活
你可以先随便丢几个指令试试:
帮我解释下这个项目的目录结构
给 utils/date.ts 写点测试用例
把这个函数改成异步 async/await 的写法
帮我找找这个模块里有没有明显的 Bug
要是这些都没问题,咱们再开始下一步。
四、最简单的办法:直接改个接口地址
这部分是全篇最干的,新手直接照抄就行。
只要对方的接口跟 Anthropic 兼容,改个环境变量就能直接把 Claude Code 拐过去。
最推荐先试这两个:
- DeepSeek
- 智谱 GLM
因为它俩接起来最不费劲。
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
五、接入 DeepSeek:性价比最高的起步方式
5.1 临时玩一下(关了窗口就没了)
直接在终端里把这串东西敲进去:
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的_DEEPSEEK_API_KEY
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
然后进项目里运行:
cd 你的项目目录
claude
只要它能回你话,那就说明 DeepSeek 已经上岗了。
5.2 长期有效的方法(强烈推荐)
要是你用的是 zsh,就把下面这些塞进 ~/.zshrc:
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的_DEEPSEEK_API_KEY
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
写完别忘了刷新下配置:
source ~/.zshrc
要是你用的是 bash,就往 ~/.bashrc 里塞:
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的_DEEPSEEK_API_KEY
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
同样要刷新:
source ~/.bashrc
5.3 怎么看 DeepSeek 是不是真干活了?
先瞅一眼环境变量对不对:
echo $ANTHROPIC_BASE_URL
echo $ANTHROPIC_MODEL
只要能看到 deepseek-chat 和对应的 URL,那就没跑了。
再进 Claude 里发个简单的任务:
用 Python 写个 hello world 并解释每一行。
没报错、没卡死,那就是大功告成了。
六、接入智谱 GLM:国内开发者的稳妥选择
GLM 有两种接法:
- 改
~/.claude/settings.json文件 - 还是用 shell 环境变量
我建议你先试 JSON 那个,不行再用环境变量兜底。
6.1 通过 settings.json 配置 GLM
先把目录建好:
mkdir -p ~/.claude
打开这个文件:
nano ~/.claude/settings.json
把这段代码扔进去:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "你的_GLM_API_KEY",
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"API_TIMEOUT_MS": "3000000",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.6",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.6"
}
}
保存退出,然后启动:
cd 你的项目目录
claude
6.2 要是 settings.json 没反应,就上环境变量
直接轰:
export ANTHROPIC_AUTH_TOKEN=你的_GLM_API_KEY
export ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic
export API_TIMEOUT_MS=3000000
export ANTHROPIC_DEFAULT_HAIKU_MODEL=glm-4.5-air
export ANTHROPIC_DEFAULT_SONNET_MODEL=glm-4.6
export ANTHROPIC_DEFAULT_OPUS_MODEL=glm-4.6
然后开跑。想长久用就把这段也塞进 ~/.zshrc 或 ~/.bashrc。
6.3 验证 GLM 接入效果
查查环境:
echo $ANTHROPIC_BASE_URL
echo $ANTHROPIC_DEFAULT_SONNET_MODEL
进去随便派个活儿:
用几句话总结一下这个仓库是干嘛的。
只要接口有动静,就算你接上了。
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
七、MiniMax-M2.5:建议把它作为备选或者挂在路由里
说句实在话:
MiniMax-M2.5 是个好东西,但不建议作为你玩 Claude Code 的第一个“正宫”模型。
不是它不行,而是为了稳定,建议先拿 DeepSeek 或 GLM 练手,等你有经验了再把它挂上去:
- 通过聚合平台接
- 自己搭个兼容 API
- 或者用下面要讲的 Claude Code Router(CCR)
简单说,MiniMax 更适合放在一个“多模型系统”里发光发热。
八、进阶大杀器:装个 Claude Code Router (CCR)
要是你只是想“能用”,上面那些就够了。
但如果你想追求极致体验,比如:
- 简单的活儿让便宜模型干
- 烧脑的活儿让牛逼模型干
- 遇到超长代码换长上下文模型
- 一个崩了自动换另一个
那你就得试试 CCR 了。
8.1 安装 CCR
npm install -g @musistudio/claude-code-router
看看装好没:
ccr --help
能看到一堆命令说明,就说明搞定了。
8.2 建个配置目录
mkdir -p ~/.claude-code-router
nano ~/.claude-code-router/config.json
8.3 送你一个拿来即用的最小化配置
这份配置不求全,只求能让你最快跑起来。
{
"LOG": true,
"API_TIMEOUT_MS": 600000,
"NON_INTERACTIVE_MODE": false,
"Providers": [
{
"name": "deepseek",
"api_base_url": "https://api.deepseek.com/chat/completions",
"api_key": "你的_DEEPSEEK_API_KEY",
"models": ["deepseek-chat", "deepseek-reasoner"],
"transformer": {
"use": ["deepseek"],
"deepseek-chat": {
"use": ["tooluse"]
}
}
},
{
"name": "glm",
"api_base_url": "https://open.bigmodel.cn/api/paas/v4/chat/completions",
"api_key": "你的_GLM_API_KEY",
"models": ["glm-4.6", "glm-4.5-air"]
}
],
"Router": {
"default": "deepseek,deepseek-chat",
"think": "deepseek,deepseek-reasoner",
"background": "glm,glm-4.5-air",
"longContext": "glm,glm-4.6",
"longContextThreshold": 60000
}
}
这逻辑很简单:
- 平常干活就找
deepseek-chat - 遇到难题让
deepseek-reasoner上 - 跑个后台任务找便宜的
glm-4.5-air - 文件太多了就切到
glm-4.6
注意:不同的模型厂商脾气不一样,这就是为什么 Router 配置起来会稍微复杂点。
8.4 启动 CCR 加上 Claude Code
直接跑这个:
ccr code
你可以理解为:CCR 现在成了 Claude Code 的专职模型管家。
改了配置想重启?跑 ccr restart。
想看管家界面?跑 ccr ui。
想管管模型?跑 ccr model。
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
九、教你一套聪明的“模型混搭法”
别老想着一个模型用到黑,那是土豪干的事。
聪明人都是这么分的:
方案 A:极致省钱流
- 默认干活:DeepSeek V3.2
- 解决难题:DeepSeek Reasoner 或者 GLM 5
- 吞长文本:GLM 5 或者通义千问
- 后台杂事:哪个便宜用哪个
方案 B:稳扎稳打流
- 默认干活:GLM 4.6 或 5
- 解决难题:最强的推理型选手
- 吞长文本:专门的长文本接口
- 备选方案:DeepSeek V3.2
方案 C:尝鲜 MiniMax 派
- 用 Router 接上 MiniMax-M2.5
- 专门让它写某类代码
- 旁边一定要留个 DeepSeek 或 GLM 备胎
记住啊,没有最强的模型,只有最合适的任务。
十、避坑指南:遇到问题怎么办?
10.1 提示 claude: command not found
肯定是没装上,或者装了电脑没找到路。
查查 npm 把东西装哪了:
npm root -g
npm bin -g
找到了路径就把那个 bin 文件夹加到系统的 PATH 环境变量里。
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
10.2 看到 401 报错或者认证失败
别怀疑,肯定是 API Key 没填对或者没生效。
查查环境变量:
echo $ANTHROPIC_AUTH_TOKEN
要是出来的是空的,那你肯定是写完配置没跑 source,或者文件写错地方了。
10.3 报错 404 或者模型找不到
这大概率是接口地址(Base URL)填歪了。
查查这个:
echo $ANTHROPIC_BASE_URL
很多时候不是模型不行,是你把路带偏了。
10.4 Router 配置文件报错
基本就是这几个原因:
- JSON 少了逗号或者多了括号
api_base_url抄错了- 模型名字对不上
拿个在线 JSON 校验工具过一下,或者直接cat出来肉眼仔细对一遍。
10.5 连是连上了,但模型像个傻子
这不叫接入失败,这叫“适配不良”。可能是:
- 这模型根本不会调用工具
- 任务太复杂,它脑力跟不上
- 你让它干了它不擅长的事
所以才强调要模型分工,别指望一个模型包打天下。
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
十一、最快上手指南(不想看长篇大论的看这里)
想现在就开始?直接选一条路走:
路线 1:最速体验版
- 装 Claude Code:
npm install -g @anthropic-ai/claude-code - 随便跑一下:进项目敲
claude看一眼 - 换上 DeepSeek:
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的_API_KEY
export ANTHROPIC_MODEL=deepseek-chat
- 重新起飞:再敲一次
claude
路线 2:专业多模型版
- 装好 Claude Code
- 装上 CCR:
npm install -g @musistudio/claude-code-router - 写配置:在
~/.claude-code-router/config.json里塞进文中的示例 - 一键启动:
ccr code
十二、给新手的最后建议
如果你是头一回折腾:
- 单纯想试试:直接 Claude Code 配 DeepSeek 或 GLM,先玩起来再说。
- 打算天天用:那就上 CCR,把多模型分工搞好,一定要留个备用方案。
- 想试 MiniMax:别急,先用 DeepSeek 跑通了,再慢慢把它接进来。
十三、总结一句话
Claude Code 的灵魂是它能像队友一样帮你改代码,而接上国产模型的意义,就是让这个“队友”既便宜又懂你。
先跑通流程,再慢慢优化分工,最后上路由器。这才是最稳的开发姿势。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
所有评论(0)