全方位实操:教你把 Claude Code 怼上 DeepSeek、智谱 GLM 等国产大模型
这篇文章就是给那些想赶紧跑通代码、不想听大道理的兄弟们写的。
咱们今天就干四件事:装好 Claude Code、确定它没坏、把它和国产模型接头,最后再玩个多模型自动切换。
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
要是你头一回玩 Claude Code,听我一句劝,按顺序来,别一上来就整那些复杂的配置。
一、先搞清楚状况:咱们要的是它的“活儿”,不是它的“脑子”
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
Claude Code 最带劲的地方其实是它那套在终端里直接改文件、跑命令、读代码的操作逻辑,而不是非得用原版的模型。
咱们的策略就是:一边享受 Claude Code 的丝滑体验,一边把底层的模型换成国内更便宜、更稳当的货色。
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
比如大家常用的:DeepSeek 系列、智谱的 GLM、MiniMax 或者通义千问,只要能接进来的都行。
二、先把 Claude Code 装上
2.1 走 npm 路径
先瞅一眼你电脑里的 Node.js 环境:
node -v
npm -v
只要能冒出版本号,就直接敲这行命令安装:
npm install -g @anthropic-ai/claude-code
装完后记得验验货:
claude --version
2.2 走官方脚本路径
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
你要是嫌 npm 麻烦,官方也有现成的安装脚本。
苹果或 Linux 用户
curl -fsSL https://claude.ai/install.sh | bash
Windows 的朋友们
如果是 PowerShell,跑这个:
irm https://claude.ai/install.ps1 | iex
要是普通的 CMD,用这个:
curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
装好了别忘了还是用 claude --version 确认一下。
三、先别急着改,原版跑跑看
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
先钻进你的项目文件夹里:
cd /你的项目路径
claude
第一次进它会让你扫码或者登录一下,这块照做就行。
先别管切模型的事,先看看它能不能正常喘气:能不能读你的代码,能不能听懂你的话。
可以随便丢给它几个任务试试:让它解释下代码结构,写个测试用例,或者找找有没有明显的 Bug。
只要原版能跑通,咱们接下来的“偷梁换柱”才靠谱。
四、最简单的办法:改改环境变量就能成
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
这部分是给小白准备的。要是对方的 API 兼容 Anthropic,咱们改个环境变量就完事了。
我最推荐先拿 DeepSeek 或者智谱 GLM 练手,因为这俩最容易成功。
五、接入 DeepSeek:性价比之王
5.1 临时玩玩(关了终端就失效)
在你的终端里直接刷这几行:
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的_DEEPSEEK_API_KEY
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
然后直接在项目里开搞:
cd /你的项目
claude
只要它能应声,说明 DeepSeek 已经接上头了。
5.2 长期打算(推荐方案)
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
如果你用的是 zsh,就把刚才那堆 export 的代码塞进 ~/.zshrc 文件的末尾,然后跑一下 source ~/.zshrc。
要是你还在用 bash,那就塞进 ~/.bashrc 之后跑 source ~/.bashrc。
5.3 看看是不是真的换了
你可以敲一下 echo $ANTHROPIC_MODEL。
如果出来的结果是 deepseek-chat,那就对了。
进去给它个任务,比如:“帮我写个 Python 的 HelloWorld”,看它回不回你,没报错就是稳了。
六、接入 智谱 GLM:国内开发者的定心丸
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
接 GLM 有两种法子,咱先说更正经的 JSON 配置法。
6.1 改 settings.json
先整好配置目录:
mkdir -p ~/.claude
然后用你喜欢的编辑器(比如 nano)打开 ~/.claude/settings.json,把下面这段粘进去:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "你的_GLM_API_KEY",
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"API_TIMEOUT_MS": "3000000",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.6",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.6"
}
}
存好之后,直接跑 claude。
6.2 环境变量法(JSON 不行就用这个)
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
跟 DeepSeek 一样,直接在终端里 export 那些变量。把基础路径换成智谱的,模型名字也改对,就行了。
6.3 验证一下
随便让它总结下你这个仓库是干啥的,只要能吐出字来且不报接口错误,就没问题。
七、MiniMax-M2.5:建议配合路由器使用
老实说,我不推荐新手第一步就直接生啃 MiniMax,因为它在适配上可能没前两个那么无脑。
最稳妥的玩法是先让 DeepSeek 或 GLM 跑通,然后再通过聚合平台或者“路由器”把它带进来。
八、进阶绝招:安装 Claude Code Router (CCR)
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
要是你想要那种“简单的活儿走便宜模型,烧脑的活儿走强力模型”的体验,那就得用 CCR 了。
8.1 搞定 CCR
npm install -g @musistudio/claude-code-router
8.2 配置走起
在 ~/.claude-code-router/config.json 里写好你的模型池子。
比如把 DeepSeek V3 设为默认,把 Reasoner 设为处理复杂逻辑,再把 GLM 当作备份或者处理长文本。
8.3 怎么跑?
配置好了以后,别再直接敲 claude 了,改敲:
ccr code
这就是让 CCR 坐在底层给 Claude Code 当指挥官。
九、教你一套模型组合拳
别死磕一个模型,根据任务分层才是老鸟的做法。
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
要是追求省钱,默认就用 DeepSeek V3.2,重活儿交给 DeepSeek Reasoner。
要是追求稳定,可以把智谱 GLM 4.6 顶在前面。
十、避坑指南:常见报错怎么救
10.1 命令找不着
可能是你装完后,npm 的路径没进系统的环境变量。自己去查查 npm bin 的位置补上就行。
10.2 报 401 认证失败
九成九是你的 API Key 没填对,或者环境变量没 source 成功。
10.3 报 404 或找不到模型
这通常是接口地址(Base URL)写错了,或者是模型名字跟对方服务商提供的不匹配,多检查一个字母都行。
十一、给急性子的“保姆级”路径
每天免费领 1亿 Token,白嫖DeepSeek、GLM、MiniMax、Kimi等大模型!
想快速上手?先装 Claude Code,然后去 DeepSeek 官网弄个 Key,在终端里 export 环境变量,最后进项目跑 claude。这就是最短的成功路径。
十二、总结建议
新手就老老实实直连 DeepSeek 或者 GLM。打算长期当生产力工具用的,一定要研究下 CCR 多模型调度。
十三、心里话
Claude Code 真正的杀手锏是它那一整套接管终端的开发流,换成国产模型不仅是为了省那点钱,更是为了网络更稳、响应更快。
先跑通,再优化,最后上路由器,按这个节奏来,准没错。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)