Agent 设计模式全景图:从 ReAct 到工业级多智能体架构

文章目录

一、Agent 时代的范式转移 —— 从自动补全到自主工作流

1.1 从“辅助编程”到“自主智能体”:系统能力的演进

在软件工程领域,AI 工具正经历从 GitHub Copilot(生成式补全)向 Claude Code / Cursor / Trae(任务级智能体)的代际跨越。这一转变的核心在于底层处理逻辑从“概率预测”向“目标驱动”的范式转移。

1. 生成式补全阶段

早期的 AI 编程工具主要基于 Transformer 的文本补全能力。

  • 交互逻辑:基于当前代码上下文进行单向预测(Next Token Prediction)。
  • 局限性:缺乏对项目全局目标的理解,无法处理多文件关联逻辑,不具备运行反馈的感知能力。
  • 系统定位:人类主导编码,AI 提供局部建议。

2. 自主智能体阶段

Claude CodeTrae 为代表的工具,标志着 Agentic 时代的到来。

  • 交互逻辑:用户输入自然语言目标(如“重构权限校验模块”),系统自主生成执行路径。
  • 核心特征:具备闭环执行能力。系统能够独立进行文件检索、代码改动、终端编译以及基于报错信息的迭代修正。
  • 系统定位:AI 承担任务实施,人类负责需求定义与高层级审计。
技术维度 传统 AI 助手 (Copilot 时代) 自主 Agent (Agentic 时代)
驱动机制 提示词驱动 (Prompt-driven) 目标驱动 (Goal-driven)
上下文深度 局部文件片段 全局索引 + 运行时环境 (Runtime)
反馈机制 单向输出 (Open-loop) 闭环修正 (Closed-loop / Feedback-loop)
典型产品 GitHub Copilot (Early versions) Trae (Builder Mode), Claude Code, Cursor

1.2 为什么设计模式是 Agent 系统的核心逻辑?

在构建工业级 Agent 时,单纯依赖高参数量的模型(如 GPT-4o 或 Claude 3.5 Sonnet)并不能保证任务的完成度。设计模式(Design Patterns)提供了将模型推理转化为稳定系统输出的架构框架。

1. 提升系统的确定性

大模型的输出具有概率性特征。通过引入状态机(FSM)结构化约束等设计模式,可以将不确定的推理过程封装在确定的业务逻辑路径中,确保 Agent 在执行关键工程操作(如数据库迁移、文件删除)时的安全性。

2. 优化长程上下文的处理能力

即便是具备百万 Token 窗口的模型,在长文本中间信息的捕捉上仍存在衰减。RAG(检索增强生成)模式与**层级规划模式(Hierarchical Planning)**能够实现精准的信息调度。例如,Cursor 并不是将整个代码库塞入 Context,而是通过向量搜索实现高关联度的 Context Injection。

3. 实现工程化的自我修正

单一的生成逻辑无法应对运行时的异常。**反思模式(Reflection)**赋予了系统“感知错误”并“重新规划”的能力。Claude Code 之所以能在复杂的工程环境中自主生存,是因为它具备处理终端报错、分析 Traceback 并自动重新发起修复指令的逻辑框架。

4. 工业化落地的标准化

  • Trae 的 Builder 模式背后是一套标准化的子目标拆解协议(Decomposition)
  • Cursor 的 @Codebase 功能本质上是 Routing(路由模式)Index-based Memory(索引存储模式) 的工程实现。

总结:
Agent 设计模式并非简单的 Prompt 组合,而是由**推理(Reasoning)、规划(Planning)、记忆(Memory)与工具调用(Tooling)**构成的复合 AI 系统架构。在接下来的章节中,我们将详细解构这些已被顶尖编程产品验证的核心模式。


二、基础执行模式 —— 单体推理与闭环修正

在 Agent 架构中,基础执行模式决定了模型如何处理原子任务。与传统的单次 Prompt 触发不同,Agent 通过特定的逻辑循环,实现了从“静态生成”到“动态自适应”的转变。

2.1 ReAct 模式:推理与行动的协同

ReAct (Reasoning + Acting) 是目前 Agent 最通用的底层执行逻辑。它要求模型在执行任何外部操作前,必须先生成一段结构化的推理路径。

逻辑结构:

  • Thought(推理):模型对当前状态进行分析,明确下一步目标。
  • Action(行动):根据推理结果,调用特定的工具(如查询 API、读取文件)。
  • Observation(观察):获取工具执行后的原始数据或环境反馈。

工程价值:

ReAct 解决了模型在复杂任务中“跳步”的问题。通过强制要求模型记录推理过程,开发者可以清晰地追踪 Agent 的决策路径。

  • 产品映射:基础插件系统与低阶 Agent
    ChatGPT 早期插件版或早期的 GitHub Copilot Chat 中,当你要求 AI 查询外部信息时,系统后台便是在运行 ReAct 循环:分析查询词 -> 执行搜索 -> 整合搜索结果。

2.2 Self-Reflection (自我反思):基于反馈的逻辑迭代

当任务涉及代码调试或多步逻辑推导时,初次生成的方案往往存在缺陷。Self-Reflection(自我反思) 模式通过引入“反馈循环”来提升任务完成度。

逻辑路径:执行 -> 错误捕获 -> 逻辑修正 -> 再次执行

工业实践:Claude Code 的报错处理机制

Claude Code (Anthropic) 在处理复杂的工程任务时,表现出了极高的纠错能力,这主要得益于其内置的反思机制:

  1. 执行指令:Agent 在终端尝试运行 npm run test
  2. 捕获异常:终端返回 ReferenceError: x is not defined
  3. 反馈分析:Agent 并不立即报错退出,而是通过反思逻辑分析堆栈信息(Traceback),定位到缺失的变量定义。
  4. 自主修正:Agent 自动修改源文件,重新运行测试,直至 Observation 结果为“Success”。

结论:反思模式将“错误”视作一种输入信号,使 Agent 具备了在无人干预的情况下自主达成目标的能力。


2.3 验证链 (CoVe) 与静态约束:确保输出的确定性

在编程软件中,代码的正确性必须符合严格的语法约束。Chain of Verification (CoVe, 验证链) 模式通过“二次验证”来大幅降低大模型的幻觉率(Hallucination)。

逻辑流:

  1. 初步生成:模型给出代码初稿。
  2. 验证环节:模型针对初稿中的关键逻辑点进行自我核查。
  3. 结果收敛:结合验证结果输出最终版本。

产品映射:Cursor 的代码校验与 Linter 集成

Cursor 之所以能实现极其精准的代码编辑(Fast Edit),是因为它将 AI 推理与工程化的**静态检查(Static Analysis)**进行了深度融合:

  • Linter 实时反馈:当 Cursor 的 Agent 准备写入代码时,底层系统会自动运行语言服务器协议(LSP),检查语法冲突。
  • 自动修正:如果静态检查发现潜在错误(如类型不匹配),Agent 会立即触发补救逻辑。这种模式确保了用户看到的最终代码是符合工程规范的,极大减少了无效生成的比例。

2.4 基础模式对比表(技术视角)

模式 核心机制 核心收益 典型产品/功能
ReAct 推理与行动交替执行 环境感知与工具调用能力 基础搜索/工具助手
Reflection 循环修正执行路径 提高复杂任务的成功率 Claude CodeDevin
CoVe / 静态约束 前置校验与格式约束 降低幻觉,确保代码合规 Cursor (Composer)

三、规划模式 —— 复杂目标的任务编排与分解

在处理“修复一行 Bug”这类原子任务时,单体推理模式(如 ReAct)表现优异。然而,面对“构建一个完整的登录模块”或“重构整个 API 层”等复杂目标,系统必须具备**全局规划(Planning)**能力,以防止在长程任务中产生“目标漂移”或“上下文偏移”。

3.1 Plan-and-Execute(计划与执行):策略与实施的解耦

Plan-and-Execute 模式将任务处理分为两个阶段:首先由模型生成完整的执行计划(Step 1…n),随后按序执行每一个子任务。

逻辑结构:

  1. Planner(规划器):接收目标,调研代码库,输出一份包含所有步骤的结构化任务列表。
  2. Executor(执行器):针对任务列表中的每一项,调用对应的工具进行实施。
  3. Re-planner(重规划器):在每一步执行完成后,评估当前进度是否偏离目标,必要时修正剩余计划。

工业实践:GitHub Copilot Workspace 的分阶段工作流

GitHub Copilot Workspace 完整体现了这种“策略先行”的设计模式。当你提交一个 GitHub Issue 时,其处理逻辑如下:

  • Spec 阶段:系统首先生成一份技术规格说明书,明确受影响的文件和逻辑。
  • Plan 阶段:将规格说明转化为可执行的步骤列表(Plan),用户可以在此处进行人工干预。
  • Implementation 阶段:Agent 按照确认后的 Plan 逐一修改代码。

优势:这种模式极大降低了计算开销,因为模型不需要在每一轮执行中重新思考全局目标,同时也提高了系统输出的可预测性。


3.2 动态子目标拆解(Dynamic Decomposition):递归式工程实施

与预先生成固定计划不同,动态拆解模式更强调任务的递归性。当 Agent 发现某个子目标过于复杂时,会实时将其进一步拆解。

技术逻辑:

系统通过递归算法将大任务(Parent Task)拆解为多个子任务(Sub-tasks)。如果子任务依然无法直接执行(非原子操作),则继续向下拆分,直到所有底层任务都可由 API 或工具直接完成。

典型产品:Trae (Builder Mode)

字节跳动推出的 AI IDE Trae,其核心竞争力在于 Builder 模式下的动态拆解能力:

  • 多维度拆分:当你输入“开发一个待办事项应用”时,Trae 会自动感知项目结构,将其拆解为:定义 Prisma Schema -> 构建后端路由 -> 前端 UI 开发
  • 依赖感知:它能识别出任务间的先后顺序,例如在数据库未就绪前不会尝试编写查询逻辑。
  • 实时调整:如果在执行某一步(如构建后端路由)时遇到环境冲突,Trae 会实时调整后续的 UI 开发计划。

3.3 静态规划 vs. 动态拆解的对比

在工程落地中,开发者需要根据任务的确定性来选择规划模式:

维度 静态规划 (Plan-and-Execute) 动态拆解 (Dynamic Decomposition)
任务类型 目标明确的长程任务 不确定性高的探索性任务
典型逻辑 预设全量步骤,按序执行 走一步拆一步,实时反馈
受控程度 高(用户可中途审核完整计划) 中(任务在执行中动态产生)
代表产品 GitHub Copilot Workspace Trae (Builder Mode), Bolt.new

3.4 规划模式解决的关键瓶颈

1. 缓解上下文衰减 (Context Decay)

在长程任务中,如果采用 ReAct 这种边想边做的方式,中间产生的 Observation 会迅速占满 Context Window。规划模式通过将任务拆分为独立的子任务,使得每个 Executor 只需要加载与当前子任务相关的上下文,有效解决了“信息淹没”问题。

2. 提升并行执行潜力

通过规划,系统可以识别出不互相依赖的子任务(例如同时生成前端图标和后端配置文件)。LLMCompiler 等高级模式可以利用这种规划结果实现并行调用,将原本串行的执行时间缩短 50% 以上。


总结:
规划模式将 AI 的角色从“代码生成器”提升到了“工程架构师”。通过预先布局与动态调整,Agent 能够处理横跨数十个文件的复杂变更。


四、记忆与上下文模式 —— 工程化信息的精准检索与注入

即使现代大型语言模型(LLM)的上下文窗口已达到百万级,但在处理大型工程项目时,盲目将全量代码输入模型会导致注意力稀释、性能下降及极高的计算成本。记忆与上下文模式(Memory & Context Management) 的核心在于:如何只在必要时,将最相关的知识注入 Agent。

4.1 代码感知 RAG (Code-Specific RAG):工程索引的精准化

传统的 RAG(检索增强生成)仅基于文本相似度。而在编程场景中,代码感知 RAG 引入了代码结构(如 AST 抽象语法树)来增强检索深度。

技术逻辑:

  1. 多维索引:系统不仅对代码文本进行向量化(Embedding),还会提取函数调用关系、类继承树及模块依赖图。
  2. 语义路由:当用户提问时,Agent 先判断意图。如果是“重构”,则优先检索定义;如果是“查 Bug”,则优先检索调用链路。

产品映射:Cursor 的 @Codebase 机制

Cursor 的核心竞争力在于其高度优化的本地索引:

  • 非全量注入:当你使用 @Codebase 提问时,Cursor 并不是将数万行代码塞给模型,而是通过高效的向量数据库快速定位与当前意图最相关的代码片段。
  • 上下文补全:它会自动附带相关的头文件、接口定义和类型声明,确保 Agent 在编写代码时具备完整的“逻辑上下文”,而不仅仅是零散的代码块。

4.2 过程化记忆 (Procedural Memory):SOP 与工程规范的固化

Agent 不仅需要记住“代码是什么”,还需要记住“代码应该怎么写”。过程化记忆通过预设规则集(Rules)来约束 Agent 的生成行为,确保其符合项目的特定架构规范。

核心机制:

将人类的工程实践(如:统一使用异步函数、禁止使用特定库、代码缩进规范)转化为 Agent 每次执行任务时必须前置读取的指令集。

产品映射:Cursor 的 .cursorrules 与 Trae 的 Project Rules

  • .cursorrules:开发者可以通过该文件为项目定制专属的“数字说明书”。例如,要求 Agent 在修改 API 时必须同步更新 Swagger 文档。
  • 逻辑价值:这相当于为 Agent 植入了“长期记忆”,使其在切换不同项目时能迅速适应不同的编码风格和技术栈,无需用户重复提醒。

4.3 上下文压缩与状态管理 (State Management)

在长达数小时的交互中,对话历史会变得异常冗长。Agent 必须具备**上下文清理(Compaction)**能力,以维持长期的运行稳定。

常用策略:

  1. 递归总结 (Recursive Summarization):当对话超过特定阈值,Agent 自动对前文进行摘要,保留核心决策和已完成的任务状态,丢弃冗余的交互信息。
  2. 关键信息持久化:将任务执行中发现的变量名、路径名存入临时 Key-Value 存储,而不是保留在 Prompt 中。

产品映射:Claude Code 的长会话优化

Claude Code (Anthropic) 在处理长任务时,会定期对之前的操作轨迹进行清理。它只保留当前任务分支最关键的上下文,避免了因为历史干扰导致的逻辑混乱。这种“滑动窗口”式的记忆管理确保了系统在处理复杂重构任务时,思路始终保持聚焦。


4.4 记忆管理模式对比表

模式 实现技术 核心目的 典型应用场景
代码 RAG 向量库 + AST 结构索引 解决超大规模代码库检索 Cursor (@Codebase)
过程化记忆 配置约束 (.cursorrules) 固化项目规范与架构风格 Trae, Cursor
状态压缩 递归总结 + 关键路径保留 优化长对话中的模型注意力 Claude Code

4.5 记忆模式解决的关键痛点

1. 降低幻觉概率

模型产生幻觉的主要原因是“信息不足”或“信息过载”。精准的 RAG 注入确保了模型是在真实代码基础上进行推理,而非凭空猜测不存在的 API。

2. 控制 Token 预算

通过精细化的上下文管理,系统可以显著减少不必要的 Token 消耗,使 Agent 在处理大型复杂任务时的综合成本下降 40% 以上。


总结:
记忆模式将 Agent 从“瞬时反应”提升到了“持续感知”的高度。通过将代码索引(RAG)与工程规范(Procedural Memory)相结合,Agent 能够真正理解项目的深层逻辑。


五、多智能体协作与人机回环 —— 复杂任务的组织力

在处理涉及环境配置、前后端联动及部署上线的全栈任务时,单一 Agent 的上下文处理能力和逻辑一致性往往会达到极限。多智能体协作模式(Multi-Agent Patterns) 通过“分而治之”的思路,将复杂工程拆解为多个专业角色的协同工作。

5.1 层级模式 (Hierarchical / Orchestrator):任务的中心化调度

层级模式通过一个“主管 Agent(Orchestrator)”负责全局规划与指令下发,多个“执行 Agent(Workers)”负责特定领域的实施。

逻辑结构:

  • 主管 Agent:负责解析用户需求、拆解子任务,并根据执行结果决定是否需要调整路径。
  • 专用 Agent:例如专门负责 Shell 操作的终端 Agent、专门负责代码生成的编码 Agent、专门负责 Web 检索的搜索 Agent。

产品映射:Devin 与 Bolt.new

  • Devin:作为自主 Agent 的典型,Devin 内部运行着一套复杂的层级体系。当它在构建一个全栈应用时,会有专门的子系统负责监控编译错误,另一个子系统负责在浏览器窗口验证 UI 效果。
  • Bolt.new:在生成 Web 应用时,Orchestrator 负责根据技术栈(如 React/Vite)初始化环境,随后调用不同的指令流完成文件写入和实时预览。

核心优势:通过角色分离,每个 Agent 只需要加载与其职能相关的 Prompt 约束,有效降低了单次推理的干扰。


5.2 线性流模式 (Sequential Workflow):状态的标准化传递

线性流模式模拟了传统软件开发的流水线(Pipeline),任务按照预定义的顺序在不同的 Agent 之间流转。

逻辑结构:

需求分析 Agent -> 系统设计 Agent -> 代码实施 Agent -> 测试审计 Agent。每一个环节的输出都是下一个环节的输入。

产品映射:GitHub Copilot Workspace

Copilot Workspace 是线性流模式的工程化范式:

  1. Spec Agent 分析 GitHub Issue 并生成技术规格。
  2. Plan Agent 基于规格说明生成步骤。
  3. Implementation Agent 最终将步骤转化为代码变动。
    这种模式确保了每一个阶段都有明确的交付物,方便开发者进行阶段性审查。

5.3 人机回环 (Human-in-the-loop):安全性与质量红线

在工业级 Agent 系统中,完全脱离人工的“自动驾驶”存在高风险。人机回环(HITL) 模式将人类专家嵌入到 Agent 的执行循环中,充当关键决策的审批者。

核心机制:

  1. 断点挂起:当 Agent 准备执行高风险动作(如删除数据库、修改关键配置文件、访问外部网络)时,系统强制挂起。
  2. 输入反馈:用户可以点击“允许”、“修改计划”或“终止执行”。

产品映射:Claude Code 的权限控制

Claude Code (Anthropic) 在其 CLI 工具中严格执行了人机回环机制:

  • 敏感操作确认:当 Claude Code 尝试运行 rm 指令或执行可能产生费用的网络请求时,它会明确提示用户授权。
  • 计划确认流:在开始大规模重构前,它会先展示计划并询问:“是否按照此逻辑进行?”这种设计确保了 Agent 始终在人类设定的安全轨道内运行。

5.4 协作模式的技术对比

模式 协作机制 核心价值 典型产品
层级模式 主管分配 + 专家执行 解决多维度、非线性任务 Devin, Bolt.new
线性流模式 阶段性接力 标准化作业,确保每步可审 Copilot Workspace
人机回环 关键节点人工审批 确保安全性与最终质量 Claude Code, OpenDevin

5.5 协作模式解决的关键挑战

1. 降低逻辑崩溃率

单 Agent 处理长链路任务时,逻辑容易随着步骤增加而“坍塌”。多智能体模式通过状态重置(每个子任务都是新的开始),保持了链路的稳定性。

2. 实现能力的异构化

不同的子任务可以调用不同的模型(如:规划用 GPT-4o,简单的文件读取用更快的轻量级模型),从而在保证效果的前提下,大幅优化响应速度和 Token 成本。


总结:
多智能体协作将 Agent 从“个人英雄主义”转向了“团队协同”。通过科学的任务分工与必要的人工干预,Agent 系统得以处理企业级的复杂交付任务。


六、总结与选型指南 —— 构建工业级 Agent 的工程实践

在理解了推理、规划、记忆与协作四类核心模式后,开发者面临的最终挑战是如何将这些模式组合,构建出既具备灵活性又拥有确定性的系统。本章将对比当前顶尖产品的架构差异,并总结工程落地的关键建议。

6.1 主流 Agent 产品的架构组合对比

虽然 CursorClaude CodeTrae 都能处理复杂的编程任务,但它们的底层设计模式侧重点截然不同:

产品 核心模式组合 架构侧重点 适用场景
Cursor RAG + 静态验证 (CoVe) Context 精度:通过高性能本地索引 (@Codebase) 实现极低延迟的代码补全与修改。 高频、局部的代码编写与重构。
Claude Code ReAct + 自我反思 (Reflection) 推理深度:依赖 Claude 3.5 Sonnet 的原生推理能力,强于终端调试与复杂 Bug 诊断。 涉及环境配置、自动化测试与复杂逻辑修复。
Trae 动态拆解 + 线性工作流 任务编排:Builder 模式擅长将模糊需求转化为多文件联动的工程实施路径。 从零构建项目或进行大规模功能模块开发。

6.2 工业级 Agent 开发的三个核心坑位

在从 Demo 走向生产环境的过程中,开发者必须解决以下工程问题:

1. 递归死循环与 Token 预算 (The Token Loop)

Agent 在使用 ReAct 或 Reflection 模式时,容易因为工具调用失败或逻辑冲突陷入死循环。

  • 对策:必须在架构层引入 Max Iterations(最大迭代次数)Token Budgeting(Token 预算控制)。一旦超过阈值,系统必须挂起并强制触发人机回环(HITL),请求人工介入。

2. 确定性与灵活性失衡

完全依赖模型生成的步骤(Plan)往往不可控。

  • 对策:引入 有限状态机(FSM)。在核心业务流程中(如支付、部署),使用状态机硬编码跳转逻辑,只允许 Agent 在预设的状态内进行“局部推理”。这种“戴着镣铐跳舞”的设计是金融、研发自动化等领域的必经之路。

3. 可观测性(Observability)是调试的基础

Agent 的执行黑盒化是其最大的落地障碍。

  • 对策:实现全链路的 Thought Trace(推理踪迹)日志。参考 Cursor 的运行日志,记录每一次 Thought、Action 和 Observation。这不仅用于 Debug,更是后续优化 Prompt 策略的关键数据源。

6.3 开发者选型建议:何时该用什么模式?

构建 Agent 系统时,应遵循**“简单模式优先”**原则,避免过度工程化:

  • 场景 A:知识问答或简单文件操作
    • 选型:基础 ReAct
    • 理由:开发成本低,响应速度快。
  • 场景 B:高精度代码生成或数据提取
    • 选型RAG + 强结构化输出 (JSON Schema)
    • 理由:通过检索保证事实性,通过格式约束确保下游程序可解析。
  • 场景 C:长链路、多模块协作(如端到端开发)
    • 选型Plan-and-Execute + 多智能体层级架构
    • 理由:通过规划防止目标漂移,通过角色分离降低单一模型的上下文压力。

6.4 结语:迈向复合 AI 系统(Compound AI Systems)

Agent 的设计模式正逐渐从单纯的 Prompt Engineering 演变为复杂的复合 AI 系统

  • 模型是组件而非全部:在 TraeClaude Code 的背后,除了强大的 LLM,还有精密的索引算法、静态代码分析工具以及严谨的任务编排引擎。
  • 设计的终点是协同:未来的软件开发不再是人类编写代码,而是人类设计“能够编写代码的 Agent 系统”。

理解并掌握这些设计模式,是开发者从 AI 使用者转变为 AI 系统架构师的必修课。无论工具如何更迭,底层的推理逻辑、规划路径与协作机制将始终是 Agent 系统的核心骨架。

附录:Agent 开发工具箱 (GitHub 资源清单)

在构建自定义 Agent 系统时,选择合适的框架可以大幅降低底层逻辑的实现难度。以下框架分别对应了本文提到的核心设计模式:

  • LangGraph最适合实现循环(Reflection)与状态控制。

    • 核心优势:传统的 Agent 框架多为 DAG(有向无环图)结构,而 LangGraph 允许构建包含循环的图结构。这使得实现 Self-Reflection(自我反思)持久化状态管理 变得非常简单,是构建高逻辑复杂度 Agent 的首选。
  • CrewAI最适合多智能体角色协作(Multi-Agent Collaboration)。

    • 核心优势:基于“角色(Role)”的设计理念,能够轻松实现本文提到的 Hierarchical(层级模式)Sequential(线性流模式)。它内置了任务委派与协同逻辑,非常适合处理需要多工种配合的复杂工程任务。
  • PydanticAI由 Pydantic 团队开发,最适合强结构化输出。

    • 核心优势:在工业级落地中,确定性至关重要。PydanticAI 利用 Python 的类型提示(Type Hints)强制约束 Agent 的输出格式。它是实现 Structured Output静态逻辑验证 的利器,能有效防止 Agent 的幻觉输出破坏下游业务系统。
  • AutoGPT / Forge适合探索自主任务拆解。

    • 核心优势:在 Dynamic Decomposition(动态子目标拆解) 方面有深厚的积累,适合需要高度自主性、探索性任务的实验场景。
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐