前言

最近上面找事,可能有一些 Agent 开发的需求(成 AI 应用开发了😂),因此博主打算先了解下一些开源 Agent 框架,学习 UP 主 唐国梁Tommy2026 AI Agent框架终极指南:从入门到生产部署的选型地图,10大框架五大范式,一期全讲透 视频,跟着 UP 一起来看下各个 Agent Framework 的优缺点,记录下个人学习笔记,和大家一起分享交流😄

video2026 AI Agent框架终极指南:从入门到生产部署的选型地图,10大框架五大范式,一期全讲透

referencehttps://chatgpt.com/

1. 本期内容概览

2024 年,GitHub 上超过 1000 stars 的 Agent 相关仓库从 14 个猛增到 89 个,增长 535%。那一年被称为 Agent 框架的寒武纪大爆发,几乎每周都有新框架横空出世,每个都号称自己是 “构建 AI Agent 的最佳方案”。

那你知道生物学上寒武纪之后发生了什么吗?大灭绝,物种数量急剧收缩,只有最适应环境的存活下来,到了 2026 年 3 月,Agent 框架的战场也走到了同样的拐点,优胜劣汰之后,十个主力玩家各自占据了清晰的生态位,今天这期内容我们就跟着 UP 主看清这十个框架背后的底层逻辑,它们各自的基因优势,以及最关键的在你的具体场景下到底该选谁。

先说三件正在重塑整个竞争格局的大事,第一件 MCP 标准化

MCP 全称 Model Context Protocol,是 Anthropic 在 2024 年底提出的,定义了大模型跟外部工具和数据源交互的标准协议,你可以把它理解为 Agent 工具调用领域的 “USB 接口”。

在 MCP 出现之前,每个框架都有自己的工具接口定义方式,你在 LangChain 里写的工具搬到 CrewAI 里就得重写,到 2026 年 3 月,十个主流框架里至少八个已经原生支持 MCP:
在这里插入图片描述
在这里插入图片描述

这意味着什么?工具生态的壁垒正在消失,你用 MCP 标准封装的工具可以在几乎任何框架里直接用,选框架时,“它支持多少工具” 这个维度的权重在大幅下降,因为工具层已经被标准化抹平了。

第二件 A2A 协议的兴起
在这里插入图片描述

A2A 全称 Agent-to-Agent Protocol,是 Google 在 2025 年提出的,定义的是不同框架构间的 Agent 之间怎么通信,如果说 MCP 解决的是 “Agent 怎么用工具”,那 A2A 解决的就是 “Agent 怎么跟 Agent 说话”,目前原生支持 A2A 的有 Microsoft Agent Framework、Google ADK 和 AgentScope,CrewAI 和 LangGraph 通过社区插件提供部分支持。

A2A 的普及速度不如 MCP,因为它的真正价值在于跨组织的 Agent 互操作,你们公司的 Agent 要跟合作伙伴的 Agent 协作,这需要更长的采纳周期,但方向是确定的,Agent 生态正在从 “框架孤岛” 走向 “互操作网络”。

第三件,Context Engineering 理念的普及,2025 年兴起了一个新共识:光做 Prompt Engineering 不够了,你得做 Context Engineering,精心管理送进大模型上下文窗口的信息质量和结构,这推动了框架在记忆压缩、上下文过滤、动态工具选择等方面的一轮创新潮。

这三件事加在一起,本质上是在重新定义一个好的 Agent 框架到底该长什么样,工具调用被 MCP 标准化了,AI 的通信被 A2A 标准化了,那框架之间真正的差异化竞争在哪里,答案是 架构范式和编排能力,这就引出了今天最核心的部分,五大架构范式的正面对决。

2. 第一种范式:图状态机(LangGraph)

第一种范式,图状态机,代表选手:LangGraph
在这里插入图片描述

LangGraph 的哲学六个字概括,“少抽象,多控制”,它提供的核心原语极其精简:Node 节点、Edge 边、State 状态

开发者用这三个积木自己搭出任意复杂的执行图,设计灵感来自 Google 的 Pregel 和 Apache Beam,LangGraph 不做任何架构决策,它不预设 Agent 应该怎么思考、怎么协作,你要自己设计状态模式、编排逻辑、错误处理,正如 LangChain 团队自己说的,“当我们必须在易用性和生产就绪性之间做取舍时,我们选择了生产就绪性”。

这意味着什么?灵活性拉满,学习曲线也拉满,根据实际反馈,有经验的团队也需要 2 到 3 周才能写出生产级的 LangGraph 代码,但回报也是最大的,内置 Checkpointer 支持状态持久化,可以做 “时间旅行”,回溯到任意历史状态调试,内置 interrupt 函数,可以在任意节点暂停执行等人工审批,恢复后从断点继续 token 级流式传输零额外开销。Klarna 用它构建客户服务 Agent,Vodafone 用它做数据工程 AI 助手,Replit 用它编排代码生成工作流。

在核心能力评分里,LangGraph 的多 Agent 编排生产部署成熟度、生态丰富程度、可观测性、灵活可定制性全部拿到了满分 5 分,唯一低分是上手难度只有 2 分。

3. 第二种范式:角色驱动(CrewAI)

如果 LangGraph 是 Agent 框架里的 Linux,强大但需要你懂,那第二种范式就是它的反面,角色驱动范式,代表选手 CrewAI
在这里插入图片描述

CrewAI 的哲学更直觉,“像组建真实团队一样组建 Agent 团队”,每个 Agent 被赋予 Roll、Goal 和 Backstory,用自然语言就能定义一个有个性、有专长的 AI 角色,定义角色,分配任务,启动团队,三步搞定。

CrewAI 完全独立于 LangChain 从零构建,没有外部依赖,它提供 Crews 和 Agent 两种编排方式,Crews 强调自主协作,Agent 可以自主委派任务给同伴,Flows 提供事件驱动的精确控制路径。

47 万个 Github stars(截至 2026/3/28),超过 10 万开发者通过官方课程完成认证,上手难度评分是满分 5 分,但这种易用性是有代价的,核心框架版本号还是 0.x,API 变动频繁,底层控制力不如 LangGraph,复杂的条件分支和状态管理表达能力受限。

适合的场景很清晰,内容创作管线、市场调研、快速原型;不适合的场景也很清晰,需要极致状态控制的金融交易系统、需要精确错误恢复的长时间运行工作流。

4. 第三种范式:事件驱动(LlamaIndex/AgentScope)

讲完了两个极端,最硬核和最易用的,我们来看中间地带,第三种方式,事件驱动,代表选手:LlamaIndexAgentScope
在这里插入图片描述

LlamaIndex 的核心哲学是 “数据 Agent 智能的基石”,当其他框架都在卷编排和协作的时候,LlamaIndex 深耕的是数据连接,怎么把正确的数据在正确的时间以正确的格式送进大模型,它的数据层有 300 多个连接器,LlamaParse 文档解析引擎,支持 130 多种文件格式,包括复杂嵌套表格和手写笔记。

编排层用的是 Workflows 1.0 事件驱动、异步优先、步骤化执行,在数据密集型 Agent 这个垂直领域它的护城河深到几乎没有替代品。私募基金拿它处理复杂金融文档,保险公司拿它做保单分析,制造业拿它从技术规格书里自动提取洞察。
在这里插入图片描述

AgentScope 来自阿里巴巴通义实验室,它的核心理念是 “透明可控”,不同于其他框架试图隐藏复杂性,AgentScope 让每一个 prompt、每一次 API 调用、每一个决策步骤都对开发者可见。它有三个独特优势:内置模型微调支持,可以直接在框架内做 Agent 的强化学习微调,Python + Java 双版本,原生适配国内生态,通义千问、阿里云函数计算、钉钉。

5. 第四种范式:SDK封装(OpenAI Agents SDK/PydanticAI)

第四种范式 SDK 封装,代表选手:OpenAI Agents SDKPydanticAI
在这里插入图片描述

OpenAI Agent SDK 的整个框架只有三个核心概念:Agent、Handoff、Guardrail,Handoff 是它的核心创新,Agent 完成任务后可以把控制权移交给另一个更合适的 Agent,就像客服电话转接,上手门槛低到 5 行代码就能启动。

而且因为是 OpenAI 官方出品,跟 Responses API、微调、蒸馏工具链的集成是最原生的。它还有一个独特亮点,原生的 Realtime Voice Agents 支持,包括中断检测、实时流式语音,但缺点也很明显,缺乏持久化执行和检查点机制,编排模式有限,不支持并行和循环。
在这里插入图片描述

PydanticAI 走的是另一条路,类型安全,他的口号是 “把 FastAPI 的体验带给 Agent 开发”,所有输入输出通过 PydanticAI 模型验证,结构化输出自动解析,失败了自动重试,支持 25 个以上的模型提供商,切换大模型完全不需要重写业务逻辑。

它还内置了 TestModel 和 mock 工具,支持确定性测试,这在 CI/CD 管线里是救命功能,业内对 PydanticAI 评价很高,认为它可能成为 “类型安全 Agent 基础设施层” 的事实标准。

到这里,不管是 LangGraph 的图编排,CrewAI 的角色协作,还是 PydanticAI 的类型安全,你会发现一个共同前提,你得真正理解大模型本身是怎么工作的,RAG 怎么做,多模态怎么接,DeepSeek 这类国产模型怎么用到生产里,这些底层能力决定了你用任何框架的上限。

6. 第五种范式:低代码平台(Dify)

OK,我们继续,第五种范式,低代码平台,代表选手:Dify
在这里插入图片描述

Dify 在 GitHub 上拥有 13 万多个 stars,全球排名第 51,这个数据是碾压性的,远超所有 “纯代码框架”,Dify 不是 Python 库,它是一个完整的 Web 平台,拖拽式工作流编辑器、模型管理、知识库管理、API 一键发布、日志监控全都在浏览器里操作,非技术人员也能构建复杂的 Agent 工作流。Maersk 全球航运巨头在用,Novartis 制药公司在用,2026 年 3 月刚完成 3000 万美元 Pre-A 轮融资,估值 1.8 亿美元。

它的核心价值不在于技术深度,而在于 “让 AI 应用开发民主化”,当然,灵活性是它最大的天花板,你受限于可视化编辑器的表达能力,复杂定制还是得降级到代码。

这五大范式讲完你会发现一个有趣的现象,它们不是在同一个维度上竞争的,LangGraph 赢在控制力,CrewAI 赢在易用性,LlamaIndex 赢在数据能力,PydanticAI 赢在类型安全,Dify 赢在低门槛,它们更像是生态位分化,而不是零和博弈。

7. 企业统一类框架(MS Agent/Google ADK)

但还有两个重量级选手我们还没聊,来自大厂的 “企业统一类” 框架 Microsoft Agent Framework
在这里插入图片描述

它是 2025 年 10 月最重要的行业事件的产物,微软宣布合并 AutoGenSemantic Kernel,AutoGen 是学术界最前沿的多 Agent 研究框架,5 万多个 stars,Semantic Kernel 是企业级稳定的 AI 编排引擎,2 万多个 stars。
在这里插入图片描述

合并后的新框架继承了两边的基因,AutoGen 的群聊、辩论、反思等先进多 Agent 模式,加上 Semantic Kernel 的企业级安全和遥测能力,它有三个独特优势,唯一同时原生支持 .NET 和 Python 的主流框架,原生支持 A2A、AG-GUI、MCP 三大标准,协议覆盖面是所有框架中最全的,与 Azure AI Foundry 深度集成,2026 年 2 月达到 Release Candidate 状态,GA 预计在 2026 年 Q1 末发布,对于 .NET 技术栈的企业来说,这几乎是唯一选择。
在这里插入图片描述

Google ADK 走的是多语言路线,同时覆盖 Python、TypeScript、Java,Go 也在开发中,这在主流框架中独一无二,它提供三类 Agent,LlmAgent 做智能推理,SequentialAgent、ParallelAgent、LoopAgent 做确定性编排,BaseAgent 做自定义扩展,与 Vertex AI 和 Cloud Run 的原生集成使它成为 Google Cloud 企业的自然选择,但框架本身还是 0.x 版本,社区规模远不及 LangChain,离开 Google 生态后灵活性明显下降。

8. 四步选型决策树

OK,十个框架的底层逻辑都摊开了,现在进入最实用的环节:选型决策,这里 UP 给了一套四步决策树,不需要记住每个框架的全部特性,只需要回答四个问题:

第一步,你的团队技术栈是什么?如果是 .NET 或 C# 直接选 Microsoft Agent Framework,没有第二选项,如果是 Java 看 Google ADK 或 AgentScope 的 Java 版,如果是 TypeScript 全栈,看 OpenAI Agents SDK 或 LangGraph.js,如果是多语言混合团队,Google ADK 覆盖面最广,纯 Python 团队选择最多,继续往下。

第二步,核心使用场景是什么?数据密集型 RAG 或文档问答,LlamaIndex 没有对手;角色化多 Agent 协作,CrewAI 最直观;复杂有状态工作流,LangGraph 是金标准;快速原型或 MVP,CrewAI或 OpenAI Agents SDK;上手最快,企业低代码 AI 平台 Dify;国内企业私有化部署 AgentScope 或 Dify。

第三步,部署在哪个云上?Azure 选 Microsoft Agent Framework,Google Cloud 选 Google ADK,阿里云选 AgentScope,自托管或私有化首选 Dify,没有特定偏好的话,根据场景选。

第四步,对大模型有偏好吗?深度依赖 OpenAI 生态选 OpenAI Agents SDK,依赖 Gemini 选Google ADK,用国内模型如通义千问或文心一言选 AgentScope 或 Dify,追求模型无关的最大灵活性,PydanticAI 支持 25 个以上提供商,切换零成本。

这四步走完,你的选择范围基本就缩到一两个了,还有一个很多人忽略的维度:成本。所有十个框架的核心代码都是开源免费的,但 “免费” 和 “生产可用” 之间有巨大的隐性成本差异,LangGraph 的生产部署几乎必须使用付费的 LangGraph Platform,LlamaIndex 的高质量文档解析需要付费的 LlamaParse,Dify 的开源版和商业版有功能差异,Microsoft Agent Framework 和 Google ADK 分别深度绑定 Azure 和 Google Cloud 的付费服务。

相比之下,PydanticAI 的隐性成本最低,它是真正轻量的,选框架的时候,一定要把商业模式想清楚,不然上了生产才发现关键功能要掏钱,那就被动了,目前主流的判断是,LangGraph 会成为复杂工作流领域的事实标准,PydanticAI 会成为类型安全 Agent 基础设施层的事实标准,而独立的 AutoGen 已经进入维护模式,可能被边缘化。

最后说几句趋势判断,2025 年微软合并 AutoGen 和 Semantic Kernel 确立了一个信号,未来框架数量还会继续减少,活下来的会更强大,LlamaIndex 把 Workflows 独立成包,也反映了另一个趋势,核心能力模块化,可以脱离母框架独立复用,语音和视觉正在成为 Agent 的标配能力,OpenAI Agents SDK 的 Realtime Voice,Google ADK 的双向流式音视频,Agno 的多模态输入都说明多模态不再是附加功能,而是基本要求。

关于国内生态,差距和优势并存,差距在于 AgentScope 和 Dify 的国际社区影响力、英文文档质量、第三方集成广度确实落后于 LangGraph 和 CrewAI,但优势也真实存在,Dify 的 13 万多个 stars 实际上远超所有纯代码框架,AgentScope 的模型微调集成是独一无二的,国内框架对国产模型的支持更原生,在私有化部署和数据安全合规方面,国内框架更能满足监管要求。

给三类人各一句话建议,独立开发者和技术探索者从 PydanticAI 或 OpenAI Agents SDK 起步,学习曲线最平,能最快建立 Agent 开发的核心认知,等需要复杂编排了再上 LangGraph。

初创公司技术团队用 CrewAI 快速验证想法做原型,验证通过后迁移到 LangGraph 做生产系统,或者考虑 Agno 的全栈方案,一站式解决从原型到部署。

大型企业技术委员会先明确云战略,Azure 选微软、Google Cloud 选 Google、多云混合选 LangGraph 加 Dify 组合,然后优先考虑 MCP 和 A2A 协议支持,确保未来的互操作能力。

Agent 框架的战国时代正在收尾,春秋格局逐渐成型,选框架不是选 “最好的”,而是选 “最适合你的”,希望今天这期内容能帮你在这十个选项里,找到属于你的那个答案。

OK,以上就是本期想要分享的全部内容了。

结语

本篇文章我们跟着 UP 主从 Agent 框架的整体格局出发,梳理了 LangGraph、CrewAI、LlamaIndex、PydanticAI、Dify 等主流框架的核心能力,并通过五大架构范式与四步决策树,尝试回答一个最关键的问题:在真实工程场景中,我们到底该如何选择 Agent 框架。

LangGraph 选择把复杂性完全交给开发者,用图状态机换取极致控制力;CrewAI 用角色抽象屏蔽复杂性,用直觉化协作提升开发效率;LlamaIndex 深耕数据层,把“信息如何进入模型”做到极致;PydanticAI 用类型系统约束不确定性,让 Agent 行为更可控;Dify 则把复杂性收敛进平台,用可视化降低开发门槛。它们本质上不是在同一维度竞争,而是在不同层面解决同一个问题:如何让一个不确定的大模型系统,变成一个可控、可观测、可部署的工程系统。

最后,我们进一步将视角从 “技术理解” 落到 “工程决策”,通过四步选型决策树,将复杂的框架选择问题转化为几个清晰的判断维度(技术栈、场景、部署环境、模型偏好)。

希望这篇笔记不仅能帮大家选择适合自己的框架,更能帮助大家建立一套 Agent 系统认知🤗。

参考

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐