Cline 和 Roo Code kilo code 是目前 VS Code 插件中 Agent 能力最强的两

支持自定义的api 接入

支持自定义 API(可配置自己的 API Key 或接入第三方 API 端点)的 AI 编程工具,按类型整理如下:


一、独立 IDE(All-in-One)

工具 自定义 API 支持 特点
Cursor ✅ 支持 可配置 OpenAI、Anthropic、Azure、Gemini 等 API Key,也支持自定义 OpenAI 兼容端点
Windsurf (Codeium) ✅ 支持 支持自定义 OpenAI 兼容 API,可切换不同模型端点
Trae ✅ 部分支持 字节跳动出品,支持接入自定义模型(OpenAI 兼容格式)
Zed ✅ 支持 高性能编辑器,支持配置 OpenAI、Anthropic、Ollama 等自定义端点

二、VS Code 插件(最灵活)

插件 自定义 API 支持 特点
Cline ✅ 完整支持 支持任意 OpenAI 兼容 API、Anthropic、Gemini、Azure 等,可完全替换默认模型
Continue ✅ 完整支持 开源,支持 OpenAI、Anthropic、Gemini、Ollama、自定义端点等,配置最灵活
Roo Code ✅ 完整支持 Cline 的分支版本,同样支持多种自定义 API 和本地模型
CodeGPT ✅ 支持 支持自定义 OpenAI API Key 及其他提供商

三、命令行 / 终端工具

工具 自定义 API 支持 特点
Aider ✅ 完整支持 支持 OpenAI、Anthropic、Gemini、Azure、Ollama 及任何 OpenAI 兼容 API
ShellGPT / sgpt ✅ 支持 终端 AI 助手,可配置自定义 API 端点
Claude Code ⚠️ 有限 Anthropic 官方工具,目前主要支持 Claude 系列,自定义能力较弱

四、本地 / 私有化部署方案

如果你需要完全离线或接入私有 API:

方案 说明
Ollama + 任意插件 本地运行开源模型,通过 OpenAI 兼容接口接入上述插件
vLLM / llama.cpp 自建 API 服务,配合 Cline/Continue/Aider 使用
OneAPI / New API API 聚合网关,统一转发到各种模型,再接入编程工具

推荐选择

  • 想要开箱即用的 IDE:Cursor 或 Windsurf
  • 想要最大灵活性(免费):VS Code + ContinueCline
  • 想要终端工作流Aider
  • 想要完全私有化:VS Code + Continue + Ollama/vLLM

Kilo Code 完全符合你的需求:免费开源 + 支持自定义 API + 具备强大的 Agent 功能。

它是从 Cline → Roo Code → Kilo Code 这条开源分支演进而来的 ,可以理解为 Cline 的"增强版",在保留核心能力的同时增加了更多功能。


核心优势(针对你的诉求)

需求 Kilo Code 支持情况
免费使用 ✅ 开源免费(Apache 2.0),提供 $20~25 初始免费额度
自定义 API(BYOK) ✅ 完整支持,可选择 “OpenAI Compatible” 填入任意第三方 API Key
Agent 功能 ✅ 五种专业 Agent 模式:Ask / Architect / Code / Debug / Orchestrator
本地模型 ✅ 支持 Ollama 等本地模型,完全免费零成本

Agent 能力详解

相比 Cline 只有 Plan/Act 两种模式,Kilo Code 提供了更细分的 Agent 分工 :

  • Ask:纯问答,不修改代码
  • Architect:架构设计、技术方案规划
  • Code:实际编码、文件修改
  • Debug:调试、错误分析、运行测试
  • Orchestrator(编排器):将复杂任务拆解为子任务,协调多个 Agent 并行完成

Code / Orchestrator 模式下,它可以自动读写文件、执行终端命令、使用浏览器、调用 MCP 工具——这就是完整的 Agent 能力 。


自定义 API 配置方式

在 Kilo Code 设置中 :

API 提供商:OpenAI Compatible
基础 URL:https://你的-api-地址/v1
API 密钥:sk-xxxxxxxx
模型:模型 ID(如 glm-4.7-flash、deepseek-chat 等)

支持接入 OneAPI、AI Ping、OpenRouter、智谱、MiniMax 等任意 OpenAI 兼容接口 。


与 Cline 怎么选?

维度 Cline Kilo Code
代码基础 原版 Cline → Roo Code 分支
费用 完全免费,纯 BYOK 免费 + $20 额度 + BYOK
Agent 模式 Plan / Act 5 种专业模式 + Orchestrator
模型数量 主流模型 500+ 模型,60+ 提供商
平台 仅 VS Code VS Code + JetBrains + CLI
社区活跃度 成熟稳定 增长快,功能迭代激进

建议

  • 如果你追求稳定、精简、纯 BYOK,继续用 Cline
  • 如果你想要更丰富的 Agent 模式、更多模型选择、初始免费额度Kilo Code 是更好的选择

一句话总结

Kilo Code = Cline 的开源增强版,免费、支持自定义 API、Agent 功能比 Cline 更丰富(多模式 + 编排器),是目前 VS Code 插件里性价比很高的选择。

cursor 是免费的吗

是的,Cursor 下载和基础使用是免费的。

Cursor 提供 Free(免费版),无需信用卡即可下载安装 。免费版包含:

  • 基础的 AI 代码补全(Tab 补全,有限额度)
  • 基础 AI 聊天对话(约 50 次/月)
  • 单文件上下文理解
  • 完整的编辑器功能(基于 VS Code)

但免费版有明确限制:无法使用多文件 Composer、代码库全局索引、高级模型选择等功能,且 AI 请求额度有限,适合体验或轻量使用 。


付费方案(2026 年最新)

方案 价格 核心区别
Hobby(免费) $0 有限补全 + 基础聊天
Pro $20/月(年付约 $16/月) 无限 Tab 补全、多文件 Composer、代码库索引、每月 $20 额度用于高级模型
Business $40/人/月 团队管理、SSO、集中计费

新用户注册后通常会获得 约 7~14 天的 Pro 功能试用 ,试用结束后可继续使用免费版,或选择订阅付费方案。

kiro 也不支持自定义api

Kiro 免费版不支持直接接入自定义第三方 API Key(如 OpenAI、Anthropic 等)来替代平台模型。

Kiro 采用积分制(Credit-based),底层模型由 AWS/Kiro 平台统一托管和路由(Claude 系列、DeepSeek、Qwen 等),用户无法像 Cline、Continue 那样在设置里填入自己的 API Key 绕过积分消耗 。


免费版的能力边界

功能 免费版支持情况
自带 API Key(BYO Key) ❌ 不支持
平台内置模型 ✅ 支持(消耗积分,50 credits/月)
本地模型(Ollama) ✅ 支持(可离线使用,不消耗积分)
MCP 协议扩展 ✅ 支持(连接外部工具、数据库、API 等)
Kiro CLI / Headless ⚠️ 仅企业 SSO 订阅用户可用 API Key 认证

你可能看到的"API Key"是什么?

  1. Kiro CLI 的 API Key:这是给企业 SSO 订阅用户在 CI/CD 或 Headless 场景下认证身份用的,用于调用 Kiro 平台本身的 API,不是让你接入第三方 LLM 。
  2. 第三方网关/逆向项目:GitHub 上有一些开源项目(如 kiro-gatewayAIClient-2-API)可以把 Kiro 的积分模型反向代理成 OpenAI 兼容接口,或者把其他 API 包装进 Kiro 生态,但这些都是非官方方案,存在封号风险 。

如果你想要"免费 + 自定义 API"

Kiro 不是合适的选择。更匹配的工具:

  • Cline(VS Code 插件):完全免费,可配置任意 OpenAI 兼容 API
  • Continue:开源,支持任意自定义模型和 API Key
  • Aider:命令行工具,BYO API Key

Kiro 的优势在于 Spec 驱动开发Agent Hooks,适合愿意按平台积分规则使用的场景;如果核心诉求是"白嫖自己的 API Key",建议转向 Cline 或 Continue。

codebudyy 支持第三方api

在这里插入图片描述

CodeBuddy 自定义API接入模板(直接复制即用)

新建文件:项目根目录/.codebuddy/models.json

{
  "models": [
    {
      "id": "custom-llm",
      "name": "自定义私有大模型",
      "vendor": "OpenAI",
      "url": "https://你的接口地址/v1/chat/completions",
      "apiKey": "sk-你的API密钥",
      "maxInputTokens": 128000,
      "maxOutputTokens": 4096,
      "supportsToolCall": true,
      "supportsImages": false,
      "temperature": 0.7
    }
  ]
}

只需要改3个地方

  1. url:换成你的大模型接口(兼容OpenAI格式就行,比如本地部署、中转API、通义/星火兼容接口)
  2. apiKey:填你的密钥
  3. name:随便改,下拉选择时显示的名字

使用方法

  1. 保存文件后重启CodeBuddy
  2. 顶部模型下拉框直接选「自定义私有大模型」即可

额外备用模板(带低温度、适合写代码)

{
  "models": [
    {
      "id": "code-llm",
      "name": "专属代码模型",
      "vendor": "OpenAI",
      "url": "https://api.example.com/v1/chat/completions",
      "apiKey": "sk-xxxxxx",
      "maxInputTokens": 65536,
      "maxOutputTokens": 8192,
      "supportsToolCall": true,
      "supportsImages": false,
      "temperature": 0.2,
      "topP": 0.95
    }
  ]
}

你把你的API地址和密钥发我(可打码),我帮你直接生成好成品文件,你复制就能用。

手把手教你打开 「~/.codebuddy/models.json」

~ 代表电脑当前用户的根目录,我分 Windows / Mac / Linux 三种系统教你一步到位打开。

一、Windows 系统

方法1:直接地址粘贴

  1. 打开此电脑,地址栏输入:
%USERPROFILE%\.codebuddy
  1. 回车,直接进入 .codebuddy 文件夹
  2. 里面找到 models.json,用 记事本 / VS Code 打开编辑就行

方法2:显示隐藏文件夹

Windows 的 .codebuddy 是隐藏文件夹

  • 文件资源管理器 → 顶部「查看」→ 勾选「隐藏的项目」
  • 进入用户文件夹,就能看到 .codebuddy

二、Mac 系统

  1. 打开访达(Finder)
  2. 顶部菜单栏:前往 → 前往文件夹
  3. 粘贴输入:
~/.codebuddy
  1. 回车直接进入,双击 models.json 用文本/VSCode 打开

三、Linux / 服务器

终端直接输命令打开(用vim):

vim ~/.codebuddy/models.json

或者用VSCode远程打开:

code ~/.codebuddy/models.json

重点补充

如果进去没有 models.json
直接在这个 .codebuddy 文件夹里新建文本文档,命名为 models.json,把我给你的配置模板粘进去就行。

你是 Windows 还是 Mac?我可以按你系统给你一步步点哪里的精准操作。

1. 为什么这个配置里只有 apiKey,没有 secret?

因为 CodeBuddy 自定义 API 用的是「OpenAI 兼容协议」
这个协议的规则就是:
只需要一个 apiKey = 密钥 + 身份验证
不需要额外填 secret。

你用的几乎所有这类模型:

  • DeepSeek
  • 硅基流动
  • 豆包 API
  • 通义千问兼容版
  • 星火兼容版
  • 本地大模型
  • 任何中转 API

全部只需要 apiKey,不需要 secret


2. 那什么时候才需要 secret?

只有一种情况:你接入的是腾讯 CodeBuddy 官方开放平台
那种才需要:

  • client_id
  • client_secret

你现在做的是「自定义第三方模型」,不是官方开放平台,
所以 完全不需要 secret


3. 你只需要改这 2 个地方就能用

"url": "https://api.example.com/v1/chat/completions",
"apiKey": "sk-xxxxxx",

把:

  1. url → 换成你的模型接口地址
  2. apiKey → 换成你拿到的密钥(通常以 sk- 开头)

保存 → 重启 CodeBuddy → 直接能用!


4. 如果你愿意,我可以帮你直接生成成品文件

你把下面两个信息发我(可以打码):

  • 你的模型 API 地址
  • 你的 API Key

我直接给你生成可直接复制粘贴的完整文件


总结

  • OpenAI 兼容协议 = 只需要 apiKey,不需要 secret
  • 你现在的配置是完全正确
  • 直接填你的密钥就能用

你这个页面是超算互联网 SCNet 的控制台,它的 LLM 接口是标准 OpenAI 兼容格式

1. 核心地址(直接填到 CodeBuddy)

  • Base URL(基础地址)
    https://api.scnet.cn/api/llm/v1
    
  • 完整对话接口(你配置里的 url)
    https://api.scnet.cn/api/llm/v1/chat/completions
    

2. 认证方式

  • 只需要 apiKey(没有 secret)
  • 格式:sk-xxxxxx...,在你截图这个页面生成并复制即可。

3. 可用模型示例(填在 CodeBuddy 里)

  • DeepSeek-R1-Distill-Qwen-7B
  • DeepSeek-R1-Distill-Qwen-14B
  • minimax-m2.5
  • Qwen3-30B-A3B

4. 给你生成好的 CodeBuddy 配置

{
  "models": [
    {
      "id": "scnet-code",
      "name": "超算-DeepSeek代码模型",
      "vendor": "OpenAI",
      "url": "https://api.scnet.cn/api/llm/v1/chat/completions",
      "apiKey": "sk-你的密钥",
      "maxInputTokens": 65536,
      "maxOutputTokens": 8192,
      "supportsToolCall": true,
      "supportsImages": false,
      "temperature": 0.2,
      "topP": 0.95
    }
  ]
}

sk-你的密钥 换成你在 SCNet 控制台生成的 key,保存到:

~/.codebuddy/models.json

重启 CodeBuddy 就能选这个模型了。

要不要我帮你把当前可用的模型列表整理成可直接复制的配置?

直接给你 SCNet(超算互联网)官方 MCP 地址 + CodeBuddy 可用的 mcp.json 完整配置,全部用你自己的 sk-xxx 密钥。


一、SCNet 官方 MCP 基础信息(实测可用)

  • Base 地址
    https://api.scnet.cn/api/mcp/v1
    
  • SSE(CodeBuddy 用这个)
    https://api.scnet.cn/api/mcp/v1/sse
    
  • Streamable HTTP
    https://api.scnet.cn/api/mcp/v1/mcp
    
  • 认证:只需要 Authorization: Bearer sk-xxx无 secret

二、直接可用的 mcp.json(全局生效)

路径:~/.codebuddy/mcp.json(没有就新建)

{
  "mcpServers": {
    "scnet-mcp": {
      "type": "sse",
      "url": "https://api.scnet.cn/api/mcp/v1/sse",
      "headers": {
        "Authorization": "Bearer sk-你的密钥"
      }
    }
  }
}

sk-你的密钥 换成你在 https://www.scnet.cn/ui/console/index.html#/llm/apikeys 生成的 key。


三、搭配你之前的 models.json(一起生效)

{
    "models": [
        {
            "id": "MiniMax-M2.5",
            "name": "SCNet-MiniMax-M2.5",
            "vendor": "OpenAI",
            "apiKey": "sk-。。。。。",
            "url": "https://api.scnet.cn/api/llm/v1/chat/completions",
            "maxInputTokens": 128000,
            "maxOutputTokens": 8192,
            "supportsToolCall": false,
            "supportsReasoning": true
        }
    ],

}

或者加上
“availableModels”: [
“MiniMax-M2.5”
]

{
    "models": [
        {
            "id": "MiniMax-M2.5",
            "name": "SCNet-MiniMax-M2.5",
            "vendor": "OpenAI",
            "apiKey": "sk-。。。。。",
            "url": "https://api.scnet.cn/api/llm/v1/chat/completions",
            "maxInputTokens": 128000,
            "maxOutputTokens": 8192,
            "supportsToolCall": false,
            "supportsReasoning": true
        }
    ],
    "availableModels": [
        "MiniMax-M2.5"
    ]
}

四、重启生效

改完两个文件后:

codebuddy restart

然后就能在 CodeBuddy 里选 超算模型 + 超算 MCP 工具


要不要我把这两个文件的内容整合成一个可直接复制的脚本,你一键生成?

Continue:开源,支持任意自定义模型和 API Key Aider:命令行工具,BYO API K这个qoder相比怎么样 有spec plan功能吗

你问的 Qoder 确实具备 Spec(规约)Plan(计划) 功能。而且它不仅支持自定义模型和 API Key,在一些关键特性上,它与 Continue、Aider 也各有侧重。

为了让你看得更清楚,我把这三个工具的核心区别整理成了一个表格:

🔧 三款AI编程工具核心对比

特性 Qoder Continue Aider
核心定位 Agentic IDE,主打全链路自动化的自主编程平台 IDE插件,深度集成于VS Code/JetBrains的AI助手 命令行工具,与Git深度结合的AI结对编程
开源/许可 闭源,商业软件 开源(Apache 2.0) 开源(Apache 2.0)
模型支持 ✅ 支持,但需Pro及以上订阅 ✅ 支持,高度灵活,可直连任何兼容OpenAI的API ✅ 支持,核心特色就是自带API去哪都行
Spec/Plan功能 原生支持,有独立的Planning Agent (/plan) 和 Quest模式的Spec驱动开发 原生支持,核心功能,提供专门的Plan Mode 不支持,需用户手动用/ask命令引导其生成计划
主要交互形式 IDE插件 / CLI IDE插件 / CLI 命令行 (CLI)
模型自定义 支持,但门槛高,需要订阅 门槛低,原生支持本地模型和自托管 门槛低,API集成是其基石
云端/工作区 ✅ 支持Quest Remote在云端执行,支持工作区(Worktree)并行 ❌ 未知 ❌ 支持,通过命令行
数据安全感 (代码在阿里云) (模型数据自己可控) (模型数据自己可控)
上手难度 中低
价格方面 有免费额度,高级功能需订阅 完全免费 完全免费
团队协作支持 ❓未知 支持,可与企业环境集成 在Git工作流中支持协作

🚀 各自的 Spec/Plan 功能详解

  • Qoder:自动化程度最高,更像是一个“AI架构师”和“AI员工”的结合体。

    • /plan 命令:它会为你的任务生成一份详细的规划方案,你可以像审阅PR一样,确认、修改后再让AI执行。
    • Quest Mode & Spec:这是Qoder的杀手锏。在Quest模式中选择“Code with Spec”,它会先和你沟通需求,然后生成一份类似技术设计文档的 Spec(规约) 。后续的所有代码、测试都会严格遵循这份Spec来生成,将开发流程规范化。
  • Continue:嵌入感最深,是融入你日常工作的“AI结对编程搭档”。

    • Plan Mode:作为三项核心工作模式之一(Chat/Plan/Agent)。它在你写代码前,先帮你分析需求、拆解步骤,避免“需求还没聊完,代码已经跑偏”的尴尬。
  • Aider:需手动引导,它就像一个专注的“AI执行者”,需要你来扮演“AI架构师”。

    • 需手动模拟:Aider本身没有内置的Plan功能,用户需要先通过 /ask 命令让它一步步分析并制定计划,确认后再用 /architect proceed 来执行。

💡 模型自定义:各有门道

  • Qoder:门槛最高。你需要订阅Pro或以上版本,才能在设置中添加自定义模型并填入你的API Key。虽然官方对此功能有限制,但它是完全支持的。

  • Continue:上手最简单,原生支持且高度灵活。你可以很轻松地在配置里填入任何自托管的本地模型(如通过Ollama)或任何第三方OpenAI兼容API的URL和Key。

  • Aider:从底层设计上就支持,它通过命令行参数直接指定,同样非常灵活。

💎 总结:我应该怎么选?

看完上面的对比,你可以根据自己的实际需求来做出选择:

  1. 如果你追求极致自动化:而且不在乎代码隐私,希望指定一个目标后AI就能端到端地交付项目,并且愿意为高级功能付费,那么 Qoder 是不错的选择。

  2. 如果你是隐私优先的开源拥护者:希望在熟悉的IDE里,有一个能深度理解项目、支持本地/任意模型的免费AI助手,那么 Continue 会更适合你。

  3. 如果你是命令行重度用户:享受Git与AI无缝结合的工作流,喜欢自主掌控整个开发进程,并且想灵活接入各种模型API,那么 Aider 会是你的最佳搭档。

你主要是在 IDE 里写代码还是习惯用命令行呢?更看重数据安全自由度,还是希望 AI 能自动化完成更多事情?可以跟我说说你的偏好和使用习惯,帮你看看这三款里哪个最适合你~

Cline 是有 Agent 功能的,而且它的 Agent 能力正是核心亮点之

Cline 是有 Agent 功能的,而且它的 Agent 能力正是核心亮点之一。

你可能没有注意到模式切换,或者使用的是较旧版本。Cline 提供了三种工作模式:

模式 功能
Ask 仅问答,不操作文件
Plan 分析需求并制定执行计划
Act(Agent) 自动执行:读写文件、运行终端命令、使用浏览器、调用 MCP 工具

Cline Agent 能做什么

Act 模式下,Cline 可以:

  • 自动编辑文件:读取、修改、创建、删除项目中的多个文件
  • 执行终端命令:运行 npm installgit commitpytest 等(执行前会请求你确认)
  • 浏览器自动化:打开网页、抓取内容、截图分析(用于调试或获取文档)
  • 多步骤任务:自主规划并执行跨文件的复杂重构
  • MCP 扩展:通过 Model Context Protocol 连接数据库、文件系统、第三方 API 等外部工具

如何开启 Agent 模式

在 Cline 聊天面板的底部,你会看到模式切换按钮:

[Ask] [Plan] [Act]

点击 Act 即可进入 Agent 模式。此时你输入需求(如"给这个项目添加用户认证功能"),Cline 会自主分析代码库、制定步骤、修改文件、运行测试。


可能混淆的原因

如果你之前用的是 Continue 插件,那确实 Continue 的 Agent 能力较弱(主要是聊天和补全)。但 Cline 和 Roo Code 是目前 VS Code 插件中 Agent 能力最强的两个。

如果你确实在 Cline 里找不到 Act 模式,建议检查:

  1. 插件版本是否最新(v3.x 以上)
  2. 是否误装成了其他插件(如"Continue"或早期版本)

需要我截图说明 Cline 的 Act 模式入口在哪里吗?

## Codex 要用超级管理安装

https://apps.microsoft.com/detail/9plm9xgg6vks?hl=zh-cn&gl=LU

administrator安装

“使用其他API”接入Codex,现在主要有这三种可行的方式:

方式 具体说明 优点 缺点
1. 使用官方Codex CLI,配置其他服务商 OpenAI官方的Codex CLI工具支持通过--provider参数接入多种第三方服务。 官方支持,配置简单,选择丰富。 本质上是调用了其他厂商的大模型,Codex的角色更像一个客户端,而非真正替换了它背后的模型。
2. 使用第三方API中转服务 国内外的开发者社群提供了许多Codex API的中转服务,比如“SuperFast”等。这些服务伪装成Codex的API接口,但在服务端对接了其他模型。 提供统一的Codex接口格式,对国内用户更友好,有时延迟和稳定性更优。 需要自行甄别服务质量和稳定性,且为非官方渠道,存在一定风险。
3. 使用开源替代品 开源社区有不少旨在替代Codex的项目,比如Open Codex、Forge。它们并非简单更换API,而是提供全新的、支持本地化部署的AI编程助手框架。 通常支持本地模型和任意API,开源免费,数据更安全,自由度极高。 需要一定的技术背景来配置和使用,前期上手门槛较高。

💡 补充说明:官方Codex API的现状

需要注意的是,OpenAI最初作为独立API发布的Codex模型已于2023年3月停止服务

  • 全新的Codex:它现在以 GPT-5-Codex 等新模型的形式回归,功能更强,但主要通过 ChatGPT Plus/Pro订阅新的API 提供服务。
  • 你仍然可以尝试:在新版Codex CLI中,通过--provider参数接入支持OpenAI API的其他厂商,或在个人项目中使用开源替代品进行部署。

⚙️ 具体操作指南

如果你选择方式一(CLI配置服务商),以下是具体的步骤:

  1. 设置环境变量

    export OPENAI_API_KEY="你的-API-密钥"
    

    你的API密钥可通过各大AI平台(如:硅基流动、OpenRouter、Groq、DeepSeek等)获取。

  2. 使用--provider参数启动Codex CLI

    codex --provider <provider_name>
    

    <provider_name> 可以替换为 openroutergroqdeepseek 等支持的选项。

🛠️ 进阶与相关工具

  • 使用非标准服务商:对于不在支持列表中的服务商,可以手动指定其API的基础URL(BASE_URL)和密钥。
    export <provider>_API_KEY="你的-API-密钥"
    export <provider>_BASE_URL="https://your-provider-api-base-url"
    
  • 开源项目:AgentAPIcoder/agentapi 项目提供了一个HTTP API,它封装了包括Codex、Claude Code、Goose等在内的多种AI编程工具,可实现统一调用。

需要注意的几点

  • 使用风险:部分第三方中转服务或接开源的接入方式是非官方的,可能会因违反服务条款而导致账号被封禁,或存在数据泄露、代码安全等风险。请注意甄选信誉良好的开源项目和服务。
  • API兼容性:在使用其他提供商的API时,请确保它们与Codex CLI的要求完全兼容,特别是在函数调用(function calling)等功能上,以避免出现报错。

💎 总结与建议

总的来说,如果你追求稳定和便捷,官方CLI直接更换厂商API是最佳选择;如果需要高频且稳定的国内访问,可以考虑第三方中转服务;如果你是资深开发者且看重数据安全和自由度,开源替代品会是你探索的方向。

另外,如果你是用来开发大型项目,也可以看看像 Cursor、GitHub Copilot、Codeium 这类功能更丰富的AI编程工具,它们很多都是很好的Codex替代品。

你主要是想在国内更方便地接入服务,还是想在项目中实现一些定制化的功能呢?可以和我说说你的具体需求,比如预算和技术栈,我来帮你分析一下这些不同的方案里哪个更适合你~

Roo Code 分两部分:本地插件完全免费,云端服务是收费的。


1. VS Code 扩展(本地版)— 免费

Roo Code 的 VS Code 插件是开源免费的(Apache 2.0 协议),你可以 :

  • 无限免费使用,所有 Agent 模式(Ask / Architect / Code / Debug / Test)都开放
  • 自带 API Key(BYOM):填入你自己的 OpenAI、Anthropic、Gemini 或任意 OpenAI 兼容 API,不经过 Roo 平台,零中间费用
  • 支持本地模型:通过 Ollama 等运行本地 LLM,完全零成本

所以如果你只用本地插件 + 自己的 API Key,Roo Code 一分钱不用花


2. Roo Code Cloud(云端版)— 收费

Roo Code 也提供云端服务,这是需要付费的 :

方案 价格 内容
Cloud Free $0/月 可使用 Cloud Agents,但按 $5/小时 扣 credits
Cloud Team $99/月 团队协作、共享配置、Slack/Linear 集成,Cloud Agents 同样 $5/小时
Roo Code Router 按量付费 内置模型路由,按 credits 计费,无加价

Cloud Agents 是脱离 VS Code 的自主云端 Agent,可以从 GitHub Issues 或网页直接触发,在云端服务器上自动运行 。


3. 重要:Roo Code 即将归档(2026年5月15日)

Roo Code 官方已宣布将于 2026年5月15日将 GitHub 仓库设为只读(归档),停止活跃开发 。官方推荐的继任者是 Kilo Code——两者代码同源,迁移成本很低(配置路径从 .roo/ 改为 .kilocode/ 即可)。


总结

使用方式 是否收费
VS Code 插件 + 自己的 API Key 完全免费
VS Code 插件 + 本地模型(Ollama) 完全免费
Roo Code Cloud Agents(云端自主运行) 收费($5/小时)

如果你只是想找一个免费、开源、支持自定义 API、有 Agent 功能的 VS Code 插件,Roo Code 本地版完全符合需求。但考虑到它即将停止维护,建议直接转向 Kilo Code(功能相同 + 持续更新 + 也有免费额度)。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐