ai编程软件 支持第三方api 汇总 CodeBuddy 超算模型 + 超算 MCP 工具 ,vscode kilocode Aider ShellGPT / sgpt
Cline 和 Roo Code kilo code 是目前 VS Code 插件中 Agent 能力最强的两
支持自定义的api 接入
支持自定义 API(可配置自己的 API Key 或接入第三方 API 端点)的 AI 编程工具,按类型整理如下:
一、独立 IDE(All-in-One)
| 工具 | 自定义 API 支持 | 特点 |
|---|---|---|
| Cursor | ✅ 支持 | 可配置 OpenAI、Anthropic、Azure、Gemini 等 API Key,也支持自定义 OpenAI 兼容端点 |
| Windsurf (Codeium) | ✅ 支持 | 支持自定义 OpenAI 兼容 API,可切换不同模型端点 |
| Trae | ✅ 部分支持 | 字节跳动出品,支持接入自定义模型(OpenAI 兼容格式) |
| Zed | ✅ 支持 | 高性能编辑器,支持配置 OpenAI、Anthropic、Ollama 等自定义端点 |
二、VS Code 插件(最灵活)
| 插件 | 自定义 API 支持 | 特点 |
|---|---|---|
| Cline | ✅ 完整支持 | 支持任意 OpenAI 兼容 API、Anthropic、Gemini、Azure 等,可完全替换默认模型 |
| Continue | ✅ 完整支持 | 开源,支持 OpenAI、Anthropic、Gemini、Ollama、自定义端点等,配置最灵活 |
| Roo Code | ✅ 完整支持 | Cline 的分支版本,同样支持多种自定义 API 和本地模型 |
| CodeGPT | ✅ 支持 | 支持自定义 OpenAI API Key 及其他提供商 |
三、命令行 / 终端工具
| 工具 | 自定义 API 支持 | 特点 |
|---|---|---|
| Aider | ✅ 完整支持 | 支持 OpenAI、Anthropic、Gemini、Azure、Ollama 及任何 OpenAI 兼容 API |
| ShellGPT / sgpt | ✅ 支持 | 终端 AI 助手,可配置自定义 API 端点 |
| Claude Code | ⚠️ 有限 | Anthropic 官方工具,目前主要支持 Claude 系列,自定义能力较弱 |
四、本地 / 私有化部署方案
如果你需要完全离线或接入私有 API:
| 方案 | 说明 |
|---|---|
| Ollama + 任意插件 | 本地运行开源模型,通过 OpenAI 兼容接口接入上述插件 |
| vLLM / llama.cpp | 自建 API 服务,配合 Cline/Continue/Aider 使用 |
| OneAPI / New API | API 聚合网关,统一转发到各种模型,再接入编程工具 |
推荐选择
- 想要开箱即用的 IDE:Cursor 或 Windsurf
- 想要最大灵活性(免费):VS Code + Continue 或 Cline
- 想要终端工作流:Aider
- 想要完全私有化:VS Code + Continue + Ollama/vLLM
Kilo Code 完全符合你的需求:免费开源 + 支持自定义 API + 具备强大的 Agent 功能。
它是从 Cline → Roo Code → Kilo Code 这条开源分支演进而来的 ,可以理解为 Cline 的"增强版",在保留核心能力的同时增加了更多功能。
核心优势(针对你的诉求)
| 需求 | Kilo Code 支持情况 |
|---|---|
| 免费使用 | ✅ 开源免费(Apache 2.0),提供 $20~25 初始免费额度 |
| 自定义 API(BYOK) | ✅ 完整支持,可选择 “OpenAI Compatible” 填入任意第三方 API Key |
| Agent 功能 | ✅ 五种专业 Agent 模式:Ask / Architect / Code / Debug / Orchestrator |
| 本地模型 | ✅ 支持 Ollama 等本地模型,完全免费零成本 |
Agent 能力详解
相比 Cline 只有 Plan/Act 两种模式,Kilo Code 提供了更细分的 Agent 分工 :
- Ask:纯问答,不修改代码
- Architect:架构设计、技术方案规划
- Code:实际编码、文件修改
- Debug:调试、错误分析、运行测试
- Orchestrator(编排器):将复杂任务拆解为子任务,协调多个 Agent 并行完成
在 Code / Orchestrator 模式下,它可以自动读写文件、执行终端命令、使用浏览器、调用 MCP 工具——这就是完整的 Agent 能力 。
自定义 API 配置方式
在 Kilo Code 设置中 :
API 提供商:OpenAI Compatible
基础 URL:https://你的-api-地址/v1
API 密钥:sk-xxxxxxxx
模型:模型 ID(如 glm-4.7-flash、deepseek-chat 等)
支持接入 OneAPI、AI Ping、OpenRouter、智谱、MiniMax 等任意 OpenAI 兼容接口 。
与 Cline 怎么选?
| 维度 | Cline | Kilo Code |
|---|---|---|
| 代码基础 | 原版 | Cline → Roo Code 分支 |
| 费用 | 完全免费,纯 BYOK | 免费 + $20 额度 + BYOK |
| Agent 模式 | Plan / Act | 5 种专业模式 + Orchestrator |
| 模型数量 | 主流模型 | 500+ 模型,60+ 提供商 |
| 平台 | 仅 VS Code | VS Code + JetBrains + CLI |
| 社区活跃度 | 成熟稳定 | 增长快,功能迭代激进 |
建议:
- 如果你追求稳定、精简、纯 BYOK,继续用 Cline
- 如果你想要更丰富的 Agent 模式、更多模型选择、初始免费额度,Kilo Code 是更好的选择
一句话总结
Kilo Code = Cline 的开源增强版,免费、支持自定义 API、Agent 功能比 Cline 更丰富(多模式 + 编排器),是目前 VS Code 插件里性价比很高的选择。
cursor 是免费的吗
是的,Cursor 下载和基础使用是免费的。
Cursor 提供 Free(免费版),无需信用卡即可下载安装 。免费版包含:
- 基础的 AI 代码补全(Tab 补全,有限额度)
- 基础 AI 聊天对话(约 50 次/月)
- 单文件上下文理解
- 完整的编辑器功能(基于 VS Code)
但免费版有明确限制:无法使用多文件 Composer、代码库全局索引、高级模型选择等功能,且 AI 请求额度有限,适合体验或轻量使用 。
付费方案(2026 年最新):
| 方案 | 价格 | 核心区别 |
|---|---|---|
| Hobby(免费) | $0 | 有限补全 + 基础聊天 |
| Pro | $20/月(年付约 $16/月) | 无限 Tab 补全、多文件 Composer、代码库索引、每月 $20 额度用于高级模型 |
| Business | $40/人/月 | 团队管理、SSO、集中计费 |
新用户注册后通常会获得 约 7~14 天的 Pro 功能试用 ,试用结束后可继续使用免费版,或选择订阅付费方案。
kiro 也不支持自定义api
Kiro 免费版不支持直接接入自定义第三方 API Key(如 OpenAI、Anthropic 等)来替代平台模型。
Kiro 采用积分制(Credit-based),底层模型由 AWS/Kiro 平台统一托管和路由(Claude 系列、DeepSeek、Qwen 等),用户无法像 Cline、Continue 那样在设置里填入自己的 API Key 绕过积分消耗 。
免费版的能力边界
| 功能 | 免费版支持情况 |
|---|---|
| 自带 API Key(BYO Key) | ❌ 不支持 |
| 平台内置模型 | ✅ 支持(消耗积分,50 credits/月) |
| 本地模型(Ollama) | ✅ 支持(可离线使用,不消耗积分) |
| MCP 协议扩展 | ✅ 支持(连接外部工具、数据库、API 等) |
| Kiro CLI / Headless | ⚠️ 仅企业 SSO 订阅用户可用 API Key 认证 |
你可能看到的"API Key"是什么?
- Kiro CLI 的 API Key:这是给企业 SSO 订阅用户在 CI/CD 或 Headless 场景下认证身份用的,用于调用 Kiro 平台本身的 API,不是让你接入第三方 LLM 。
- 第三方网关/逆向项目:GitHub 上有一些开源项目(如
kiro-gateway、AIClient-2-API)可以把 Kiro 的积分模型反向代理成 OpenAI 兼容接口,或者把其他 API 包装进 Kiro 生态,但这些都是非官方方案,存在封号风险 。
如果你想要"免费 + 自定义 API"
Kiro 不是合适的选择。更匹配的工具:
- Cline(VS Code 插件):完全免费,可配置任意 OpenAI 兼容 API
- Continue:开源,支持任意自定义模型和 API Key
- Aider:命令行工具,BYO API Key
Kiro 的优势在于 Spec 驱动开发 和 Agent Hooks,适合愿意按平台积分规则使用的场景;如果核心诉求是"白嫖自己的 API Key",建议转向 Cline 或 Continue。
codebudyy 支持第三方api

CodeBuddy 自定义API接入模板(直接复制即用)
新建文件:项目根目录/.codebuddy/models.json
{
"models": [
{
"id": "custom-llm",
"name": "自定义私有大模型",
"vendor": "OpenAI",
"url": "https://你的接口地址/v1/chat/completions",
"apiKey": "sk-你的API密钥",
"maxInputTokens": 128000,
"maxOutputTokens": 4096,
"supportsToolCall": true,
"supportsImages": false,
"temperature": 0.7
}
]
}
只需要改3个地方
url:换成你的大模型接口(兼容OpenAI格式就行,比如本地部署、中转API、通义/星火兼容接口)apiKey:填你的密钥name:随便改,下拉选择时显示的名字
使用方法
- 保存文件后重启CodeBuddy
- 顶部模型下拉框直接选「自定义私有大模型」即可
额外备用模板(带低温度、适合写代码)
{
"models": [
{
"id": "code-llm",
"name": "专属代码模型",
"vendor": "OpenAI",
"url": "https://api.example.com/v1/chat/completions",
"apiKey": "sk-xxxxxx",
"maxInputTokens": 65536,
"maxOutputTokens": 8192,
"supportsToolCall": true,
"supportsImages": false,
"temperature": 0.2,
"topP": 0.95
}
]
}
你把你的API地址和密钥发我(可打码),我帮你直接生成好成品文件,你复制就能用。
手把手教你打开 「~/.codebuddy/models.json」
~ 代表电脑当前用户的根目录,我分 Windows / Mac / Linux 三种系统教你一步到位打开。
一、Windows 系统
方法1:直接地址粘贴
- 打开此电脑,地址栏输入:
%USERPROFILE%\.codebuddy
- 回车,直接进入
.codebuddy文件夹 - 里面找到
models.json,用 记事本 / VS Code 打开编辑就行
方法2:显示隐藏文件夹
Windows 的 .codebuddy 是隐藏文件夹
- 文件资源管理器 → 顶部「查看」→ 勾选「隐藏的项目」
- 进入用户文件夹,就能看到
.codebuddy
二、Mac 系统
- 打开访达(Finder)
- 顶部菜单栏:前往 → 前往文件夹
- 粘贴输入:
~/.codebuddy
- 回车直接进入,双击
models.json用文本/VSCode 打开
三、Linux / 服务器
终端直接输命令打开(用vim):
vim ~/.codebuddy/models.json
或者用VSCode远程打开:
code ~/.codebuddy/models.json
重点补充
如果进去没有 models.json:
直接在这个 .codebuddy 文件夹里新建文本文档,命名为 models.json,把我给你的配置模板粘进去就行。
你是 Windows 还是 Mac?我可以按你系统给你一步步点哪里的精准操作。
1. 为什么这个配置里只有 apiKey,没有 secret?
因为 CodeBuddy 自定义 API 用的是「OpenAI 兼容协议」
这个协议的规则就是:
只需要一个 apiKey = 密钥 + 身份验证
不需要额外填 secret。
你用的几乎所有这类模型:
- DeepSeek
- 硅基流动
- 豆包 API
- 通义千问兼容版
- 星火兼容版
- 本地大模型
- 任何中转 API
全部只需要 apiKey,不需要 secret。
2. 那什么时候才需要 secret?
只有一种情况:你接入的是腾讯 CodeBuddy 官方开放平台
那种才需要:
- client_id
- client_secret
但你现在做的是「自定义第三方模型」,不是官方开放平台,
所以 完全不需要 secret!
3. 你只需要改这 2 个地方就能用
"url": "https://api.example.com/v1/chat/completions",
"apiKey": "sk-xxxxxx",
把:
url→ 换成你的模型接口地址apiKey→ 换成你拿到的密钥(通常以 sk- 开头)
保存 → 重启 CodeBuddy → 直接能用!
4. 如果你愿意,我可以帮你直接生成成品文件
你把下面两个信息发我(可以打码):
- 你的模型 API 地址
- 你的 API Key
我直接给你生成可直接复制粘贴的完整文件。
总结
- OpenAI 兼容协议 = 只需要 apiKey,不需要 secret
- 你现在的配置是完全正确的
- 直接填你的密钥就能用
你这个页面是超算互联网 SCNet 的控制台,它的 LLM 接口是标准 OpenAI 兼容格式:
1. 核心地址(直接填到 CodeBuddy)
- Base URL(基础地址)
https://api.scnet.cn/api/llm/v1 - 完整对话接口(你配置里的 url)
https://api.scnet.cn/api/llm/v1/chat/completions
2. 认证方式
- 只需要 apiKey(没有 secret)
- 格式:
sk-xxxxxx...,在你截图这个页面生成并复制即可。
3. 可用模型示例(填在 CodeBuddy 里)
DeepSeek-R1-Distill-Qwen-7BDeepSeek-R1-Distill-Qwen-14Bminimax-m2.5Qwen3-30B-A3B
4. 给你生成好的 CodeBuddy 配置
{
"models": [
{
"id": "scnet-code",
"name": "超算-DeepSeek代码模型",
"vendor": "OpenAI",
"url": "https://api.scnet.cn/api/llm/v1/chat/completions",
"apiKey": "sk-你的密钥",
"maxInputTokens": 65536,
"maxOutputTokens": 8192,
"supportsToolCall": true,
"supportsImages": false,
"temperature": 0.2,
"topP": 0.95
}
]
}
把 sk-你的密钥 换成你在 SCNet 控制台生成的 key,保存到:
~/.codebuddy/models.json
重启 CodeBuddy 就能选这个模型了。
要不要我帮你把当前可用的模型列表整理成可直接复制的配置?
直接给你 SCNet(超算互联网)官方 MCP 地址 + CodeBuddy 可用的 mcp.json 完整配置,全部用你自己的 sk-xxx 密钥。
一、SCNet 官方 MCP 基础信息(实测可用)
- Base 地址:
https://api.scnet.cn/api/mcp/v1 - SSE(CodeBuddy 用这个):
https://api.scnet.cn/api/mcp/v1/sse - Streamable HTTP:
https://api.scnet.cn/api/mcp/v1/mcp - 认证:只需要
Authorization: Bearer sk-xxx,无 secret。
二、直接可用的 mcp.json(全局生效)
路径:~/.codebuddy/mcp.json(没有就新建)
{
"mcpServers": {
"scnet-mcp": {
"type": "sse",
"url": "https://api.scnet.cn/api/mcp/v1/sse",
"headers": {
"Authorization": "Bearer sk-你的密钥"
}
}
}
}
把 sk-你的密钥 换成你在 https://www.scnet.cn/ui/console/index.html#/llm/apikeys 生成的 key。
三、搭配你之前的 models.json(一起生效)
{
"models": [
{
"id": "MiniMax-M2.5",
"name": "SCNet-MiniMax-M2.5",
"vendor": "OpenAI",
"apiKey": "sk-。。。。。",
"url": "https://api.scnet.cn/api/llm/v1/chat/completions",
"maxInputTokens": 128000,
"maxOutputTokens": 8192,
"supportsToolCall": false,
"supportsReasoning": true
}
],
}
或者加上
“availableModels”: [
“MiniMax-M2.5”
]
{
"models": [
{
"id": "MiniMax-M2.5",
"name": "SCNet-MiniMax-M2.5",
"vendor": "OpenAI",
"apiKey": "sk-。。。。。",
"url": "https://api.scnet.cn/api/llm/v1/chat/completions",
"maxInputTokens": 128000,
"maxOutputTokens": 8192,
"supportsToolCall": false,
"supportsReasoning": true
}
],
"availableModels": [
"MiniMax-M2.5"
]
}
四、重启生效
改完两个文件后:
codebuddy restart
然后就能在 CodeBuddy 里选 超算模型 + 超算 MCP 工具。
要不要我把这两个文件的内容整合成一个可直接复制的脚本,你一键生成?
Continue:开源,支持任意自定义模型和 API Key Aider:命令行工具,BYO API K这个qoder相比怎么样 有spec plan功能吗
你问的 Qoder 确实具备 Spec(规约) 和 Plan(计划) 功能。而且它不仅支持自定义模型和 API Key,在一些关键特性上,它与 Continue、Aider 也各有侧重。
为了让你看得更清楚,我把这三个工具的核心区别整理成了一个表格:
🔧 三款AI编程工具核心对比
| 特性 | Qoder | Continue | Aider |
|---|---|---|---|
| 核心定位 | Agentic IDE,主打全链路自动化的自主编程平台 | IDE插件,深度集成于VS Code/JetBrains的AI助手 | 命令行工具,与Git深度结合的AI结对编程 |
| 开源/许可 | 闭源,商业软件 | 开源(Apache 2.0) | 开源(Apache 2.0) |
| 模型支持 | ✅ 支持,但需Pro及以上订阅 | ✅ 支持,高度灵活,可直连任何兼容OpenAI的API | ✅ 支持,核心特色就是自带API去哪都行 |
| Spec/Plan功能 | ✅ 原生支持,有独立的Planning Agent (/plan) 和 Quest模式的Spec驱动开发 | ✅ 原生支持,核心功能,提供专门的Plan Mode | ❌ 不支持,需用户手动用/ask命令引导其生成计划 |
| 主要交互形式 | IDE插件 / CLI | IDE插件 / CLI | 命令行 (CLI) |
| 模型自定义 | 支持,但门槛高,需要订阅 | 门槛低,原生支持本地模型和自托管 | 门槛低,API集成是其基石 |
| 云端/工作区 | ✅ 支持Quest Remote在云端执行,支持工作区(Worktree)并行 | ❌ 未知 | ❌ 支持,通过命令行 |
| 数据安全感 | 低 (代码在阿里云) | 高 (模型数据自己可控) | 高 (模型数据自己可控) |
| 上手难度 | 中低 | 低 | 中 |
| 价格方面 | 有免费额度,高级功能需订阅 | 完全免费 | 完全免费 |
| 团队协作支持 | ❓未知 | 支持,可与企业环境集成 | 在Git工作流中支持协作 |
🚀 各自的 Spec/Plan 功能详解
-
Qoder:自动化程度最高,更像是一个“AI架构师”和“AI员工”的结合体。
- /plan 命令:它会为你的任务生成一份详细的规划方案,你可以像审阅PR一样,确认、修改后再让AI执行。
- Quest Mode & Spec:这是Qoder的杀手锏。在Quest模式中选择“Code with Spec”,它会先和你沟通需求,然后生成一份类似技术设计文档的 Spec(规约) 。后续的所有代码、测试都会严格遵循这份Spec来生成,将开发流程规范化。
-
Continue:嵌入感最深,是融入你日常工作的“AI结对编程搭档”。
- Plan Mode:作为三项核心工作模式之一(Chat/Plan/Agent)。它在你写代码前,先帮你分析需求、拆解步骤,避免“需求还没聊完,代码已经跑偏”的尴尬。
-
Aider:需手动引导,它就像一个专注的“AI执行者”,需要你来扮演“AI架构师”。
- 需手动模拟:Aider本身没有内置的Plan功能,用户需要先通过
/ask命令让它一步步分析并制定计划,确认后再用/architect proceed来执行。
- 需手动模拟:Aider本身没有内置的Plan功能,用户需要先通过
💡 模型自定义:各有门道
-
Qoder:门槛最高。你需要订阅Pro或以上版本,才能在设置中添加自定义模型并填入你的API Key。虽然官方对此功能有限制,但它是完全支持的。
-
Continue:上手最简单,原生支持且高度灵活。你可以很轻松地在配置里填入任何自托管的本地模型(如通过Ollama)或任何第三方OpenAI兼容API的URL和Key。
-
Aider:从底层设计上就支持,它通过命令行参数直接指定,同样非常灵活。
💎 总结:我应该怎么选?
看完上面的对比,你可以根据自己的实际需求来做出选择:
-
如果你追求极致自动化:而且不在乎代码隐私,希望指定一个目标后AI就能端到端地交付项目,并且愿意为高级功能付费,那么 Qoder 是不错的选择。
-
如果你是隐私优先的开源拥护者:希望在熟悉的IDE里,有一个能深度理解项目、支持本地/任意模型的免费AI助手,那么 Continue 会更适合你。
-
如果你是命令行重度用户:享受Git与AI无缝结合的工作流,喜欢自主掌控整个开发进程,并且想灵活接入各种模型API,那么 Aider 会是你的最佳搭档。
你主要是在 IDE 里写代码还是习惯用命令行呢?更看重数据安全自由度,还是希望 AI 能自动化完成更多事情?可以跟我说说你的偏好和使用习惯,帮你看看这三款里哪个最适合你~
Cline 是有 Agent 功能的,而且它的 Agent 能力正是核心亮点之
Cline 是有 Agent 功能的,而且它的 Agent 能力正是核心亮点之一。
你可能没有注意到模式切换,或者使用的是较旧版本。Cline 提供了三种工作模式:
| 模式 | 功能 |
|---|---|
| Ask | 仅问答,不操作文件 |
| Plan | 分析需求并制定执行计划 |
| Act(Agent) | 自动执行:读写文件、运行终端命令、使用浏览器、调用 MCP 工具 |
Cline Agent 能做什么
在 Act 模式下,Cline 可以:
- 自动编辑文件:读取、修改、创建、删除项目中的多个文件
- 执行终端命令:运行
npm install、git commit、pytest等(执行前会请求你确认) - 浏览器自动化:打开网页、抓取内容、截图分析(用于调试或获取文档)
- 多步骤任务:自主规划并执行跨文件的复杂重构
- MCP 扩展:通过 Model Context Protocol 连接数据库、文件系统、第三方 API 等外部工具
如何开启 Agent 模式
在 Cline 聊天面板的底部,你会看到模式切换按钮:
[Ask] [Plan] [Act]
点击 Act 即可进入 Agent 模式。此时你输入需求(如"给这个项目添加用户认证功能"),Cline 会自主分析代码库、制定步骤、修改文件、运行测试。
可能混淆的原因
如果你之前用的是 Continue 插件,那确实 Continue 的 Agent 能力较弱(主要是聊天和补全)。但 Cline 和 Roo Code 是目前 VS Code 插件中 Agent 能力最强的两个。
如果你确实在 Cline 里找不到 Act 模式,建议检查:
- 插件版本是否最新(v3.x 以上)
- 是否误装成了其他插件(如"Continue"或早期版本)
需要我截图说明 Cline 的 Act 模式入口在哪里吗?
## Codex 要用超级管理安装
https://apps.microsoft.com/detail/9plm9xgg6vks?hl=zh-cn&gl=LU
administrator安装
“使用其他API”接入Codex,现在主要有这三种可行的方式:
| 方式 | 具体说明 | 优点 | 缺点 |
|---|---|---|---|
| 1. 使用官方Codex CLI,配置其他服务商 | OpenAI官方的Codex CLI工具支持通过--provider参数接入多种第三方服务。 |
官方支持,配置简单,选择丰富。 | 本质上是调用了其他厂商的大模型,Codex的角色更像一个客户端,而非真正替换了它背后的模型。 |
| 2. 使用第三方API中转服务 | 国内外的开发者社群提供了许多Codex API的中转服务,比如“SuperFast”等。这些服务伪装成Codex的API接口,但在服务端对接了其他模型。 | 提供统一的Codex接口格式,对国内用户更友好,有时延迟和稳定性更优。 | 需要自行甄别服务质量和稳定性,且为非官方渠道,存在一定风险。 |
| 3. 使用开源替代品 | 开源社区有不少旨在替代Codex的项目,比如Open Codex、Forge。它们并非简单更换API,而是提供全新的、支持本地化部署的AI编程助手框架。 | 通常支持本地模型和任意API,开源免费,数据更安全,自由度极高。 | 需要一定的技术背景来配置和使用,前期上手门槛较高。 |
💡 补充说明:官方Codex API的现状
需要注意的是,OpenAI最初作为独立API发布的Codex模型已于2023年3月停止服务。
- 全新的Codex:它现在以
GPT-5-Codex等新模型的形式回归,功能更强,但主要通过 ChatGPT Plus/Pro订阅 或 新的API 提供服务。 - 你仍然可以尝试:在新版Codex CLI中,通过
--provider参数接入支持OpenAI API的其他厂商,或在个人项目中使用开源替代品进行部署。
⚙️ 具体操作指南
如果你选择方式一(CLI配置服务商),以下是具体的步骤:
-
设置环境变量:
export OPENAI_API_KEY="你的-API-密钥"你的API密钥可通过各大AI平台(如:硅基流动、OpenRouter、Groq、DeepSeek等)获取。
-
使用
--provider参数启动Codex CLI:codex --provider <provider_name><provider_name>可以替换为openrouter、groq、deepseek等支持的选项。
🛠️ 进阶与相关工具
- 使用非标准服务商:对于不在支持列表中的服务商,可以手动指定其API的基础URL(
BASE_URL)和密钥。export <provider>_API_KEY="你的-API-密钥" export <provider>_BASE_URL="https://your-provider-api-base-url" - 开源项目:AgentAPI:
coder/agentapi项目提供了一个HTTP API,它封装了包括Codex、Claude Code、Goose等在内的多种AI编程工具,可实现统一调用。
需要注意的几点
- 使用风险:部分第三方中转服务或接开源的接入方式是非官方的,可能会因违反服务条款而导致账号被封禁,或存在数据泄露、代码安全等风险。请注意甄选信誉良好的开源项目和服务。
- API兼容性:在使用其他提供商的API时,请确保它们与Codex CLI的要求完全兼容,特别是在函数调用(function calling)等功能上,以避免出现报错。
💎 总结与建议
总的来说,如果你追求稳定和便捷,官方CLI直接更换厂商API是最佳选择;如果需要高频且稳定的国内访问,可以考虑第三方中转服务;如果你是资深开发者且看重数据安全和自由度,开源替代品会是你探索的方向。
另外,如果你是用来开发大型项目,也可以看看像 Cursor、GitHub Copilot、Codeium 这类功能更丰富的AI编程工具,它们很多都是很好的Codex替代品。
你主要是想在国内更方便地接入服务,还是想在项目中实现一些定制化的功能呢?可以和我说说你的具体需求,比如预算和技术栈,我来帮你分析一下这些不同的方案里哪个更适合你~
Roo Code 分两部分:本地插件完全免费,云端服务是收费的。
1. VS Code 扩展(本地版)— 免费
Roo Code 的 VS Code 插件是开源免费的(Apache 2.0 协议),你可以 :
- 无限免费使用,所有 Agent 模式(Ask / Architect / Code / Debug / Test)都开放
- 自带 API Key(BYOM):填入你自己的 OpenAI、Anthropic、Gemini 或任意 OpenAI 兼容 API,不经过 Roo 平台,零中间费用
- 支持本地模型:通过 Ollama 等运行本地 LLM,完全零成本
所以如果你只用本地插件 + 自己的 API Key,Roo Code 一分钱不用花。
2. Roo Code Cloud(云端版)— 收费
Roo Code 也提供云端服务,这是需要付费的 :
| 方案 | 价格 | 内容 |
|---|---|---|
| Cloud Free | $0/月 | 可使用 Cloud Agents,但按 $5/小时 扣 credits |
| Cloud Team | $99/月 | 团队协作、共享配置、Slack/Linear 集成,Cloud Agents 同样 $5/小时 |
| Roo Code Router | 按量付费 | 内置模型路由,按 credits 计费,无加价 |
Cloud Agents 是脱离 VS Code 的自主云端 Agent,可以从 GitHub Issues 或网页直接触发,在云端服务器上自动运行 。
3. 重要:Roo Code 即将归档(2026年5月15日)
Roo Code 官方已宣布将于 2026年5月15日将 GitHub 仓库设为只读(归档),停止活跃开发 。官方推荐的继任者是 Kilo Code——两者代码同源,迁移成本很低(配置路径从 .roo/ 改为 .kilocode/ 即可)。
总结
| 使用方式 | 是否收费 |
|---|---|
| VS Code 插件 + 自己的 API Key | ✅ 完全免费 |
| VS Code 插件 + 本地模型(Ollama) | ✅ 完全免费 |
| Roo Code Cloud Agents(云端自主运行) | ❌ 收费($5/小时) |
如果你只是想找一个免费、开源、支持自定义 API、有 Agent 功能的 VS Code 插件,Roo Code 本地版完全符合需求。但考虑到它即将停止维护,建议直接转向 Kilo Code(功能相同 + 持续更新 + 也有免费额度)。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)