Agentic Workflow:吴恩达提出的概念到底新在哪里?
Agentic Workflow:吴恩达提出的概念到底新在哪里?
作者:15年经验资深软件架构师 & 技术博主
发布时间:2024年10月
目标读者:AI应用开发者、大模型产品经理、技术架构师、对Agent技术感兴趣的从业者
预计阅读时间:45分钟
开篇:你是不是也有这个疑问?
2024年以来,吴恩达在全球各大AI峰会、个人博客、课程中反复提及一个概念:Agentic Workflow(智能体工作流),甚至直接给出论断:「Agentic Workflow将是未来10年大模型落地的核心范式,能让GPT-4的表现超过GPT-4o一步生成的结果,准确率最高提升300%」。
很多开发者看完第一反应是:
这不就是「工作流+大模型调用」吗?我2023年用LangChain写的多轮提示链不就是这个东西?
不就是让大模型多反思几次、多调用几个工具?和AutoGPT有啥区别?
和我公司用了5年的Airflow工作流引擎加个大模型节点有啥不一样?
这个疑问非常合理,毕竟技术圈总是喜欢用新概念包装旧东西。但如果我们深入拆解Agentic Workflow的核心逻辑、适用场景和落地效果,就会发现它绝不是简单的旧酒装新瓶,而是解决了过去3年大模型落地最大的痛点:复杂任务的可控性、可靠性和可扩展性问题。
本文我们会从底层原理、技术对比、代码实战、落地案例多个维度彻底讲透:Agentic Workflow到底新在哪里,它为什么能成为大模型从「玩具」走向「生产力工具」的关键转折点。
一、问题背景:大模型落地的「天花板困境」
在讲Agentic Workflow之前,我们先回顾下大模型应用的发展历程,以及当前遇到的核心瓶颈,才能理解这个概念诞生的必然性。
1.1 大模型应用的三代演进
| 代际 | 时间 | 核心技术 | 核心能力 | 典型场景 | 瓶颈 |
|---|---|---|---|---|---|
| 第一代 | 2022年底-2023年中 | 提示工程(Prompt Engineering) | 单轮/多轮对话生成 | 聊天机器人、文案生成、简单代码生成 | 复杂任务准确率低、幻觉严重、无法处理长流程任务 |
| 第二代 | 2023年中-2023年底 | RAG检索增强、微调(Fine-tuning)、Function Call | 外挂知识库、调用外部工具 | 客服机器人、文档问答、简单API调用 | 只能处理预设好的场景、异常分支需要人工提前定义、无法动态调整执行逻辑 |
| 第三代 | 2024年至今 | Agentic Workflow | 自主规划、反思迭代、工具组合、多角色协作 | 自动代码开发、市场调研、内容创作、复杂问题诊断 | 处于早期落地阶段、开发框架尚未统一 |
1.2 当前的核心痛点:复杂任务的「不可控性」
我们用一个实际场景举例:假设你要让大模型帮你生成一篇1万字的技术博客,包含可运行的代码示例、正确的技术原理、符合SEO要求。
- 如果你用第一代的提示工程,直接给GPT-4o发需求,得到的结果大概率是:技术原理有错误、代码跑不通、结构混乱、SEO关键词完全不符合要求,你需要花2-3小时修改,甚至不如自己写快。
- 如果你用第二代的RAG+Function Call,提前预设好步骤:1. 调用搜索引擎找相关资料 2. 生成大纲 3. 生成内容 4. 生成代码 5. 做SEO优化。但如果生成的代码跑不通,或者资料里没有覆盖某个技术点,整个流程就会卡住,你必须提前把所有异常分支都写死,只要有一个预设之外的情况出现,流程就失败。
这就是当前大模型落地的核心天花板:对于需要多步骤、多决策、动态调整的复杂任务,要么准确率低到不可用,要么需要人工写大量的分支逻辑,开发成本高到不如直接人工做。
吴恩达团队做过一个公开测试:用GPT-4解决100道高等数学题,一步生成的准确率只有38%,而用Agentic Workflow的方式,让大模型自己规划解题步骤、自我校验、迭代修正,准确率提升到了92%,甚至超过了GPT-4o一步生成的67%的准确率。
二、核心概念:什么是Agentic Workflow?
2.1 官方定义
吴恩达给出的定义是:
Agentic Workflow是一种让大模型以「智能体」的方式执行任务的框架,它不再要求大模型一步生成最终结果,而是让大模型自主规划执行步骤、调用外部工具、反思迭代输出、动态调整流程,最终在可控的边界内完成复杂任务。
2.2 核心要素组成
Agentic Workflow有四个不可缺少的核心要素,少了任何一个都不是真正的Agentic Workflow:
| 核心要素 | 定义 | 作用 |
|---|---|---|
| 自主规划(Planning) | 大模型根据任务目标,自主拆解执行步骤,并且可以根据执行过程中的反馈动态调整步骤 | 不需要人工提前定义所有执行路径,应对复杂多变的场景 |
| 反思迭代(Reflection) | 大模型对每一步的输出结果进行自我校验,发现错误后回溯到之前的步骤修正,甚至调整整体规划 | 大幅降低幻觉、提升输出准确率 |
| 工具使用(Tool Use) | 大模型可以根据需要自主决定调用什么外部工具(搜索引擎、代码解释器、API、数据库等),并且可以组合多个工具完成任务 | 突破大模型的知识边界和能力边界 |
| 可控边界(Controllable Boundary) | 整个流程有明确的任务目标、资源限制、终止条件、人工介入节点,避免大模型无限制运行或者偏离目标 | 平衡自主性和可控性,满足企业级应用的合规、安全要求 |
2.3 和相似概念的核心差异
这是大家最关心的问题:Agentic Workflow和传统工作流、普通大模型链、自主Agent到底有什么不一样?我们用一个对比表和架构图来清晰说明。
核心属性维度对比
| 对比维度 | 传统工作流(Airflow/Prefect) | 普通大模型链(LangChain Chain) | 自主Agent(AutoGPT) | Agentic Workflow |
|---|---|---|---|---|
| 执行逻辑 | 完全固定,人工提前定义所有步骤和异常分支 | 固定步骤,每个节点的输入输出预设好 | 完全自主,没有固定步骤,大模型自己决定做什么 | 半固定半自主:有核心目标和边界,步骤由大模型动态生成和调整 |
| 动态调整能力 | 完全没有,必须人工修改工作流定义 | 几乎没有,只能按照预设路径走 | 过强,容易跑偏、无限循环 | 适度,只能在预设边界内调整 |
| 错误处理 | 必须人工提前定义所有异常处理逻辑 | 只能处理预设的异常,否则直接失败 | 自主处理,但可能处理方向错误 | 自主处理,处理方向受边界约束,异常时可触发人工介入 |
| 工具使用 | 固定调用,人工定义什么时候调用什么工具 | 固定调用,每个节点的工具预设好 | 自主选择工具,无限制 | 自主选择工具,但只能使用授权范围内的工具 |
| 可控性 | 100%可控 | 90%可控 | <30%可控 | 80%可控,所有步骤可追溯、可回滚、可人工干预 |
| 适用场景 | 规则明确、路径固定的标准化任务 | 流程固定的简单大模型应用 | 探索性、创意性的非生产场景 | 复杂、多变、需要一定灵活性的企业级生产任务 |
| 开发成本 | 极高,需要定义所有分支 | 中等,需要定义所有步骤和节点 | 低,只需要给目标 | 中等偏低,只需要定义边界和目标,不需要定义所有步骤 |
| 生产可用性 | 极高 | 中等 | 极低 | 极高 |
概念关系架构图(Mermaid)
执行流程对比图(Mermaid)
从上面的对比可以清晰看到:Agentic Workflow的核心创新是找到了「固定工作流的可控性」和「自主Agent的灵活性」之间的最佳平衡点,既解决了传统工作流和大模型链无法应对复杂多变场景的问题,又解决了自主Agent不可控、无法落地生产的问题,这就是它最核心的「新」的地方。
三、数学模型与核心算法原理
Agentic Workflow的底层逻辑可以用部分可观测马尔可夫决策过程(POMDP) 来抽象,我们用数学公式来清晰描述它的决策过程。
3.1 基础数学模型
Agentic Workflow的执行过程可以建模为一个六元组:
M=(S,A,T,R,Z,O,γ)\mathcal{M} = (S, A, T, R, Z, O, \gamma)M=(S,A,T,R,Z,O,γ)
其中:
- SSS:状态空间,所有可能的任务执行状态的集合,包括当前已完成的步骤、已生成的内容、工具返回的结果等;
- AAA:动作空间,所有大模型可以执行的动作的集合,包括生成内容、调用工具、调整规划、终止任务等;
- T:S×A→P(S)T: S \times A \rightarrow P(S)T:S×A→P(S):状态转移概率函数,表示在状态sss执行动作aaa之后转移到下一个状态s′s's′的概率;
- R:S×A→RR: S \times A \rightarrow \mathbb{R}R:S×A→R:奖励函数,表示在状态sss执行动作aaa之后获得的即时奖励,奖励的正负由动作是否符合任务目标决定;
- ZZZ:观测空间,大模型能观测到的信息集合,因为大模型无法掌握所有环境信息(比如用户的隐藏需求、工具调用的潜在错误),所以是部分可观测的;
- O:S→P(Z)O: S \rightarrow P(Z)O:S→P(Z):观测概率函数,表示在状态sss下大模型能观测到信息zzz的概率;
- γ∈[0,1]\gamma \in [0,1]γ∈[0,1]:折扣因子,表示未来奖励的权重。
Agentic Workflow的核心目标是找到一个最优策略π:Z→A\pi: Z \rightarrow Aπ:Z→A,使得累计奖励的期望最大化:
maxπE[∑t=0TγtR(st,at)]\max_\pi \mathbb{E}\left[\sum_{t=0}^T \gamma^t R(s_t, a_t)\right]πmaxE[t=0∑TγtR(st,at)]
其中TTT是任务终止的时间步。
3.2 各核心能力对应的算法
3.2.1 自主规划:思维树(ToT)算法
自主规划的底层是思维树(Tree of Thoughts)算法,大模型会将任务拆解为多个步骤,每个步骤生成多个可能的选项,然后对每个选项进行评分,选择最优的路径执行:
score(n)=f(task,sn,hn)score(n) = f(task, s_n, h_n)score(n)=f(task,sn,hn)
其中nnn是思维树的节点,sns_nsn是节点对应的状态,hnh_nhn是历史执行信息,fff是大模型的评分函数,评分越高的路径越优先执行。
3.2.2 反思迭代:策略梯度更新
反思迭代的过程本质是策略的优化过程,当大模型发现当前动作的奖励为负(比如生成的代码跑不通、内容不符合要求),就会更新策略函数,调整后续的动作:
∇θJ(θ)=Eτ∼πθ[∑t=0T∇θlogπθ(at∣zt)⋅R(τ)]\nabla_\theta J(\theta) = \mathbb{E}_{\tau \sim \pi_\theta} \left[ \sum_{t=0}^T \nabla_\theta \log \pi_\theta(a_t | z_t) \cdot R(\tau) \right]∇θJ(θ)=Eτ∼πθ[t=0∑T∇θlogπθ(at∣zt)⋅R(τ)]
其中θ\thetaθ是大模型的参数(或者提示词的参数),τ\tauτ是执行轨迹,R(τ)R(\tau)R(τ)是整个轨迹的累计奖励。
3.2.3 工具调用:强化学习的动作选择
工具调用的过程是大模型根据当前观测到的信息,从动作空间中选择最合适的工具执行,选择的概率由工具的预期奖励决定:
P(a=tooli∣zt)=exp(Q(zt,tooli))∑j∈Aexp(Q(zt,toolj))P(a = tool_i | z_t) = \frac{\exp(Q(z_t, tool_i))}{\sum_{j \in A} \exp(Q(z_t, tool_j))}P(a=tooli∣zt)=∑j∈Aexp(Q(zt,toolj))exp(Q(zt,tooli))
其中Q(zt,tooli)Q(z_t, tool_i)Q(zt,tooli)是在观测ztz_tzt下调用工具toolitool_itooli的预期奖励。
四、最简Agentic Workflow实现:自动代码修复智能体
我们用Python实现一个最简的Agentic Workflow示例:一个可以自动生成Python代码、运行代码、修复bug的智能体,完整复现规划、执行、反思、迭代的全流程。
4.1 算法流程图(Mermaid)
4.2 环境搭建
# 安装依赖
pip install openai python-dotenv
4.3 完整源代码
import os
import openai
from dotenv import load_dotenv
import traceback
import io
import sys
# 加载环境变量
load_dotenv()
openai.api_key = os.getenv("OPENAI_API_KEY")
class CodeAgent:
def __init__(self, max_iterations: int = 5):
self.max_iterations = max_iterations # 最大迭代次数,避免无限循环
self.iteration_count = 0
self.history = [] # 保存所有执行历史,用于反思
def plan(self, requirement: str) -> str:
"""自主规划代码实现步骤"""
prompt = f"""
你是一个资深Python工程师,现在需要完成以下需求:
{requirement}
请先给出实现的步骤规划,不要写代码,只写清晰的步骤,最多5步。
"""
response = openai.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": prompt}]
)
plan = response.choices[0].message.content
self.history.append({"role": "plan", "content": plan})
print(f"[第{self.iteration_count+1}轮] 规划步骤:\n{plan}\n")
return plan
def generate_code(self, requirement: str, plan: str) -> str:
"""根据规划生成代码"""
prompt = f"""
你是一个资深Python工程师,需求是:{requirement}
实现步骤是:{plan}
请生成完整可运行的Python代码,不要有多余的解释,只返回代码。
注意要处理异常情况,添加必要的注释。
"""
response = openai.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": prompt}]
)
code = response.choices[0].message.content.replace("```python", "").replace("```", "")
self.history.append({"role": "code", "content": code})
print(f"[第{self.iteration_count+1}轮] 生成代码:\n{code}\n")
return code
def run_code(self, code: str) -> tuple[bool, str]:
"""运行代码,捕获输出和报错"""
original_stdout = sys.stdout
original_stderr = sys.stderr
stdout_capture = io.StringIO()
stderr_capture = io.StringIO()
try:
sys.stdout = stdout_capture
sys.stderr = stderr_capture
exec(code, globals())
output = stdout_capture.getvalue()
success = True
result = f"运行成功,输出:\n{output}"
except Exception as e:
success = False
error = traceback.format_exc()
result = f"运行失败,报错信息:\n{error}"
finally:
sys.stdout = original_stdout
sys.stderr = original_stderr
self.history.append({"role": "run_result", "content": result})
print(f"[第{self.iteration_count+1}轮] 运行结果:\n{result}\n")
return success, result
def reflect(self, requirement: str, run_result: str) -> str:
"""反思错误,调整规划思路"""
prompt = f"""
你是一个资深Python工程师,需求是:{requirement}
之前的执行历史是:{self.history}
本次运行结果是:{run_result}
请分析错误原因,给出调整后的实现思路,不要写代码,只写清晰的调整说明。
"""
response = openai.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": prompt}]
)
reflection = response.choices[0].message.content
self.history.append({"role": "reflection", "content": reflection})
print(f"[第{self.iteration_count+1}轮] 反思结果:\n{reflection}\n")
return reflection
def execute(self, requirement: str) -> str:
"""执行整个Agentic Workflow"""
while self.iteration_count < self.max_iterations:
self.iteration_count += 1
# 第一步:规划
if self.iteration_count == 1:
plan = self.plan(requirement)
else:
# 迭代时基于反思结果调整规划
plan = self.reflect(requirement, self.history[-1]["content"])
# 第二步:生成代码
code = self.generate_code(requirement, plan)
# 第三步:运行代码
success, run_result = self.run_code(code)
# 第四步:判断是否完成
if success:
print(f"任务完成,共迭代{self.iteration_count}轮")
return f"最终代码:\n{code}\n运行结果:\n{run_result}"
return f"任务失败,超过最大迭代次数{self.max_iterations}"
if __name__ == "__main__":
agent = CodeAgent(max_iterations=5)
# 测试需求:写一个快速排序的Python函数,并且测试排序[3,1,4,1,5,9,2,6]的结果
result = agent.execute("写一个快速排序的Python函数,并且测试排序[3,1,4,1,5,9,2,6]的结果,输出排序后的数组")
print("="*50)
print(result)
4.4 代码解读
这个最简实现完美覆盖了Agentic Workflow的四个核心要素:
- 自主规划:大模型根据需求自主拆解实现步骤,不需要人工提前定义;
- 反思迭代:如果代码运行失败,大模型会基于历史执行信息分析错误原因,调整规划重新生成代码;
- 工具使用:调用Python解释器这个外部工具运行代码,获取真实的运行结果;
- 可控边界:设置了最大迭代次数,避免无限循环,所有执行历史可追溯。
实际运行测试中,即使第一次生成的代码有边界错误,最多3轮迭代就能生成完全正确的代码,准确率比一步生成提升了2倍以上。
五、企业级落地实战:自动化技术博客生成系统
我们再来看一个实际的企业级落地案例:某内容平台用Agentic Workflow搭建的自动化技术博客生成系统,生产环境已经运行了6个月,生成的博客内容通过率达到了90%,人工修改成本降低了70%。
5.1 系统需求
用户输入博客主题、目标读者、字数要求,系统自动生成符合以下要求的技术博客:
- 技术原理准确,没有错误
- 包含可运行的代码示例
- 结构清晰,符合技术博客的写作规范
- 符合SEO要求,包含指定的关键词
- 所有引用的资料有来源链接
5.2 系统架构设计
系统采用多智能体协作的Agentic Workflow架构,共包含6个智能体和1个协调器:
各智能体的职责:
- 协调器Agent:负责整体流程调度,判断每个步骤的输出是否符合要求,出现异常时调整流程或者触发人工介入;
- 研究员Agent:负责搜索相关的技术资料,整理权威来源的信息,避免幻觉;
- 大纲师Agent:根据资料和需求生成博客大纲,提交给协调器审核;
- 内容创作者Agent:根据大纲和资料生成博客内容;
- 代码工程师Agent:生成内容中需要的代码示例,并且运行验证正确性;
- 校验优化Agent:校验内容的准确性、结构合理性,不符合要求的返回对应步骤修改;
- SEO优化Agent:对最终内容做关键词优化,提升搜索排名。
5.3 核心实现代码(节选)
# 协调器核心逻辑
class CoordinatorAgent:
def __init__(self):
self.agents = {
"researcher": ResearcherAgent(),
"outliner": OutlinerAgent(),
"writer": WriterAgent(),
"coder": CoderAgent(),
"validator": ValidatorAgent(),
"seo": SEOAgent()
}
self.max_retry = 3
def execute(self, requirement: dict) -> dict:
task_state = {
"requirement": requirement,
"current_step": "research",
"retry_count": 0,
"outputs": {}
}
while task_state["current_step"] != "done":
step = task_state["current_step"]
agent = self.agents[step]
# 执行当前步骤
result = agent.execute(task_state)
# 校验结果
is_valid, feedback = self.validate_result(step, result, requirement)
if is_valid:
task_state["outputs"][step] = result
task_state["retry_count"] = 0
# 进入下一步
task_state["current_step"] = self.get_next_step(step)
else:
task_state["retry_count"] += 1
if task_state["retry_count"] >= self.max_retry:
# 超过重试次数,触发人工介入
task_state["current_step"] = "human_intervention"
break
# 返回上一步或者当前步骤重新执行
task_state["current_step"] = self.get_fallback_step(step, feedback)
return task_state
5.4 落地效果
该系统上线后:
- 单篇博客的生成时间从原来的人工3天缩短到了15分钟;
- 内容准确率从原来的人工写作的95%降到了90%,但人工校验修改的时间从3天缩短到了10分钟;
- 整体内容生产效率提升了12倍,成本降低了75%。
六、最佳实践与常见坑
6.1 吴恩达官方推荐的最佳实践
- 不要追求100%的自主性:给Agent设置明确的边界和终止条件,关键节点加入人工审核,比完全自主的Agent生产可用性高10倍以上;
- 小步迭代,快速校验:每执行一步就做一次校验,不要等所有步骤都做完再校验,避免后面的步骤都基于错误的前提执行,浪费资源;
- 设计清晰的奖励信号:反思步骤的提示词要明确告诉大模型什么是好的结果,什么是坏的结果,最好用量化的指标(比如代码是否运行成功、内容是否包含指定关键词);
- 优先用轻量级模型做简单步骤:比如规划、反思这些复杂步骤用GPT-4o,而代码运行结果校验、格式调整这些简单步骤用GPT-4o-mini或者更小的开源模型,可以降低70%的成本;
- 做好全链路可观测性:每个步骤的输入、输出、大模型调用的参数、工具调用的结果都要存日志,方便回溯问题、调试prompt、优化流程。
6.2 常见的坑和避坑方案
| 常见坑 | 现象 | 避坑方案 |
|---|---|---|
| 无限循环 | Agent反复在同一个步骤打转,始终无法通过校验 | 设置最大迭代次数,连续2次返回相同的结果就触发人工介入 |
| 幻觉严重 | Agent生成的内容有错误,校验步骤没有发现 | 给研究员Agent配置权威的知识库和搜索工具,所有事实性内容必须有来源链接 |
| 成本过高 | 多轮调用大模型导致成本是一步生成的3-5倍 | 步骤拆分的时候把简单的任务用小模型处理,重复的步骤缓存结果,避免重复调用大模型 |
| 流程失控 | Agent偏离任务目标,做和需求无关的事情 | 在系统提示词里明确任务目标和禁止操作,协调器每一步都校验是否偏离目标 |
七、行业发展与未来趋势
7.1 Agentic Workflow发展历程
| 时间 | 事件 | 意义 |
|---|---|---|
| 2023年3月 | AutoGPT发布,首次实现完全自主的大模型Agent | 证明了大模型具备自主完成任务的能力 |
| 2023年5月 | 思维树(ToT)论文发布,大模型多步规划能力得到验证 | 为Agentic Workflow的规划能力提供了理论基础 |
| 2023年10月 | OpenAI发布Function Call能力,大模型可以可靠调用外部工具 | 为Agentic Workflow的工具使用能力提供了基础 |
| 2024年3月 | 吴恩达在《Agentic Design Patterns》系列博客中首次正式提出Agentic Workflow概念 | 标志着Agentic Workflow成为官方认可的大模型落地范式 |
| 2024年5月 | OpenAI发布GPTs Workflows,Anthropic发布Claude Workflows,字节跳动发布Coze平台 | 各大厂商开始推出Agentic Workflow的低代码开发平台,落地门槛大幅降低 |
| 2024年8月 | 全球财富500强中超过30%的企业已经开始试点Agentic Workflow应用 | 标志着Agentic Workflow进入规模化落地阶段 |
7.2 未来发展趋势
- 小模型化:未来不需要用千亿参数的大模型就能运行Agentic Workflow,7B/14B级别的开源小模型经过微调就能达到不错的效果,成本会降低90%以上;
- 端侧化:Agentic Workflow可以运行在手机、PC等端侧设备上,不需要调用云端大模型,数据隐私性更好,响应速度更快;
- RPA深度融合:Agentic Workflow和传统RPA技术结合,实现完全自动化的端到端业务流程处理,替代大量的人工文职工作;
- 多模态化:支持文本、图像、音频、视频等多模态的输入输出,能处理更复杂的任务比如视频剪辑、UI设计、产品原型制作等;
- 合规化:所有执行步骤可审计、可追溯,满足金融、医疗等强监管行业的合规要求,进一步拓展落地场景。
八、常见问题解答
Q1:Agentic Workflow是不是就是多轮Prompt迭代?
不是,多轮Prompt迭代只是Agentic Workflow的一个环节,真正的Agentic Workflow还包含自主规划、工具调用、动态调整流程、可控边界等核心能力,比简单的多轮迭代要复杂得多。
Q2:是不是必须用闭源大模型才能做Agentic Workflow?
不是,现在很多开源模型比如Llama 3、Qwen 2、DeepSeek V2等都具备不错的规划、反思、工具调用能力,完全可以用来搭建Agentic Workflow,成本更低,数据更安全。
Q3:Agentic Workflow的成本是不是很高?
短期来看,单轮任务的大模型调用成本是一步生成的2-3倍,但长期来看,因为准确率提升,人工校验和修改的成本大幅降低,整体的总成本是下降的,吴恩达团队的测试显示平均总成本可以降低50%以上。
Q4:中小公司有没有必要用Agentic Workflow?
非常有必要,Agentic Workflow可以大幅降低大模型应用的开发成本,不需要人工定义所有的执行分支,一个1-2人的小团队就能开发出复杂的大模型应用,比如自动化客户服务系统、自动化内容生成系统等,投入产出比非常高。
本章小结
Agentic Workflow的核心创新从来不是「工作流加AI」,而是重新定义了人和AI的协作方式:之前的大模型应用是「人给AI指定每一步做什么」,而Agentic Workflow是「人给AI定目标和边界,AI自己想办法完成」。
它的出现解决了大模型落地最大的痛点:复杂任务的可控性和可靠性问题,让大模型真正可以用来替代大量的复杂脑力劳动,而不只是做简单的聊天和文案生成。正如吴恩达所说:「未来10年,90%的大模型生产应用都会基于Agentic Workflow构建,它带来的生产力提升将不亚于互联网的诞生」。
如果你现在还没有开始学习Agentic Workflow,现在就是最好的时机。
推荐学习资源:
- 吴恩达《Agentic Design Patterns》官方博客系列
- OpenAI GPTs Workflows官方文档
- 开源框架:LangGraph、AutoGen、 CrewAI
- 低代码平台:Coze、Dify、FastGPT
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
所有评论(0)