Agentic Workflow:吴恩达提出的概念到底新在哪里?

作者:15年经验资深软件架构师 & 技术博主
发布时间:2024年10月
目标读者:AI应用开发者、大模型产品经理、技术架构师、对Agent技术感兴趣的从业者
预计阅读时间:45分钟


开篇:你是不是也有这个疑问?

2024年以来,吴恩达在全球各大AI峰会、个人博客、课程中反复提及一个概念:Agentic Workflow(智能体工作流),甚至直接给出论断:「Agentic Workflow将是未来10年大模型落地的核心范式,能让GPT-4的表现超过GPT-4o一步生成的结果,准确率最高提升300%」。

很多开发者看完第一反应是:

这不就是「工作流+大模型调用」吗?我2023年用LangChain写的多轮提示链不就是这个东西?
不就是让大模型多反思几次、多调用几个工具?和AutoGPT有啥区别?
和我公司用了5年的Airflow工作流引擎加个大模型节点有啥不一样?

这个疑问非常合理,毕竟技术圈总是喜欢用新概念包装旧东西。但如果我们深入拆解Agentic Workflow的核心逻辑、适用场景和落地效果,就会发现它绝不是简单的旧酒装新瓶,而是解决了过去3年大模型落地最大的痛点:复杂任务的可控性、可靠性和可扩展性问题

本文我们会从底层原理、技术对比、代码实战、落地案例多个维度彻底讲透:Agentic Workflow到底新在哪里,它为什么能成为大模型从「玩具」走向「生产力工具」的关键转折点。


一、问题背景:大模型落地的「天花板困境」

在讲Agentic Workflow之前,我们先回顾下大模型应用的发展历程,以及当前遇到的核心瓶颈,才能理解这个概念诞生的必然性。

1.1 大模型应用的三代演进

代际 时间 核心技术 核心能力 典型场景 瓶颈
第一代 2022年底-2023年中 提示工程(Prompt Engineering) 单轮/多轮对话生成 聊天机器人、文案生成、简单代码生成 复杂任务准确率低、幻觉严重、无法处理长流程任务
第二代 2023年中-2023年底 RAG检索增强、微调(Fine-tuning)、Function Call 外挂知识库、调用外部工具 客服机器人、文档问答、简单API调用 只能处理预设好的场景、异常分支需要人工提前定义、无法动态调整执行逻辑
第三代 2024年至今 Agentic Workflow 自主规划、反思迭代、工具组合、多角色协作 自动代码开发、市场调研、内容创作、复杂问题诊断 处于早期落地阶段、开发框架尚未统一

1.2 当前的核心痛点:复杂任务的「不可控性」

我们用一个实际场景举例:假设你要让大模型帮你生成一篇1万字的技术博客,包含可运行的代码示例、正确的技术原理、符合SEO要求。

  • 如果你用第一代的提示工程,直接给GPT-4o发需求,得到的结果大概率是:技术原理有错误、代码跑不通、结构混乱、SEO关键词完全不符合要求,你需要花2-3小时修改,甚至不如自己写快。
  • 如果你用第二代的RAG+Function Call,提前预设好步骤:1. 调用搜索引擎找相关资料 2. 生成大纲 3. 生成内容 4. 生成代码 5. 做SEO优化。但如果生成的代码跑不通,或者资料里没有覆盖某个技术点,整个流程就会卡住,你必须提前把所有异常分支都写死,只要有一个预设之外的情况出现,流程就失败。

这就是当前大模型落地的核心天花板:对于需要多步骤、多决策、动态调整的复杂任务,要么准确率低到不可用,要么需要人工写大量的分支逻辑,开发成本高到不如直接人工做

吴恩达团队做过一个公开测试:用GPT-4解决100道高等数学题,一步生成的准确率只有38%,而用Agentic Workflow的方式,让大模型自己规划解题步骤、自我校验、迭代修正,准确率提升到了92%,甚至超过了GPT-4o一步生成的67%的准确率。

二、核心概念:什么是Agentic Workflow?

2.1 官方定义

吴恩达给出的定义是:

Agentic Workflow是一种让大模型以「智能体」的方式执行任务的框架,它不再要求大模型一步生成最终结果,而是让大模型自主规划执行步骤、调用外部工具、反思迭代输出、动态调整流程,最终在可控的边界内完成复杂任务。

2.2 核心要素组成

Agentic Workflow有四个不可缺少的核心要素,少了任何一个都不是真正的Agentic Workflow:

核心要素 定义 作用
自主规划(Planning) 大模型根据任务目标,自主拆解执行步骤,并且可以根据执行过程中的反馈动态调整步骤 不需要人工提前定义所有执行路径,应对复杂多变的场景
反思迭代(Reflection) 大模型对每一步的输出结果进行自我校验,发现错误后回溯到之前的步骤修正,甚至调整整体规划 大幅降低幻觉、提升输出准确率
工具使用(Tool Use) 大模型可以根据需要自主决定调用什么外部工具(搜索引擎、代码解释器、API、数据库等),并且可以组合多个工具完成任务 突破大模型的知识边界和能力边界
可控边界(Controllable Boundary) 整个流程有明确的任务目标、资源限制、终止条件、人工介入节点,避免大模型无限制运行或者偏离目标 平衡自主性和可控性,满足企业级应用的合规、安全要求

2.3 和相似概念的核心差异

这是大家最关心的问题:Agentic Workflow和传统工作流、普通大模型链、自主Agent到底有什么不一样?我们用一个对比表和架构图来清晰说明。

核心属性维度对比
对比维度 传统工作流(Airflow/Prefect) 普通大模型链(LangChain Chain) 自主Agent(AutoGPT) Agentic Workflow
执行逻辑 完全固定,人工提前定义所有步骤和异常分支 固定步骤,每个节点的输入输出预设好 完全自主,没有固定步骤,大模型自己决定做什么 半固定半自主:有核心目标和边界,步骤由大模型动态生成和调整
动态调整能力 完全没有,必须人工修改工作流定义 几乎没有,只能按照预设路径走 过强,容易跑偏、无限循环 适度,只能在预设边界内调整
错误处理 必须人工提前定义所有异常处理逻辑 只能处理预设的异常,否则直接失败 自主处理,但可能处理方向错误 自主处理,处理方向受边界约束,异常时可触发人工介入
工具使用 固定调用,人工定义什么时候调用什么工具 固定调用,每个节点的工具预设好 自主选择工具,无限制 自主选择工具,但只能使用授权范围内的工具
可控性 100%可控 90%可控 <30%可控 80%可控,所有步骤可追溯、可回滚、可人工干预
适用场景 规则明确、路径固定的标准化任务 流程固定的简单大模型应用 探索性、创意性的非生产场景 复杂、多变、需要一定灵活性的企业级生产任务
开发成本 极高,需要定义所有分支 中等,需要定义所有步骤和节点 低,只需要给目标 中等偏低,只需要定义边界和目标,不需要定义所有步骤
生产可用性 极高 中等 极低 极高
概念关系架构图(Mermaid)
渲染错误: Mermaid 渲染失败: Parse error on line 8: ... string 代表产品 Airflow/Prefect str -----------------------^ Expecting 'ATTRIBUTE_WORD', got '/'
执行流程对比图(Mermaid)

Agentic Workflow

不通过

通过

不通过

通过

接收任务 + 边界规则

大模型自主规划步骤

执行步骤1

自我校验

反思调整步骤/修正输出

执行步骤2

自我校验

所有步骤完成?

输出结果 + 全链路日志

传统工作流

接收任务

步骤1

步骤2

步骤3

输出结果

异常?

人工处理

从上面的对比可以清晰看到:Agentic Workflow的核心创新是找到了「固定工作流的可控性」和「自主Agent的灵活性」之间的最佳平衡点,既解决了传统工作流和大模型链无法应对复杂多变场景的问题,又解决了自主Agent不可控、无法落地生产的问题,这就是它最核心的「新」的地方。


三、数学模型与核心算法原理

Agentic Workflow的底层逻辑可以用部分可观测马尔可夫决策过程(POMDP) 来抽象,我们用数学公式来清晰描述它的决策过程。

3.1 基础数学模型

Agentic Workflow的执行过程可以建模为一个六元组:
M=(S,A,T,R,Z,O,γ)\mathcal{M} = (S, A, T, R, Z, O, \gamma)M=(S,A,T,R,Z,O,γ)
其中:

  • SSS:状态空间,所有可能的任务执行状态的集合,包括当前已完成的步骤、已生成的内容、工具返回的结果等;
  • AAA:动作空间,所有大模型可以执行的动作的集合,包括生成内容、调用工具、调整规划、终止任务等;
  • T:S×A→P(S)T: S \times A \rightarrow P(S)T:S×AP(S):状态转移概率函数,表示在状态sss执行动作aaa之后转移到下一个状态s′s's的概率;
  • R:S×A→RR: S \times A \rightarrow \mathbb{R}R:S×AR:奖励函数,表示在状态sss执行动作aaa之后获得的即时奖励,奖励的正负由动作是否符合任务目标决定;
  • ZZZ:观测空间,大模型能观测到的信息集合,因为大模型无法掌握所有环境信息(比如用户的隐藏需求、工具调用的潜在错误),所以是部分可观测的;
  • O:S→P(Z)O: S \rightarrow P(Z)O:SP(Z):观测概率函数,表示在状态sss下大模型能观测到信息zzz的概率;
  • γ∈[0,1]\gamma \in [0,1]γ[0,1]:折扣因子,表示未来奖励的权重。

Agentic Workflow的核心目标是找到一个最优策略π:Z→A\pi: Z \rightarrow Aπ:ZA,使得累计奖励的期望最大化:
max⁡πE[∑t=0TγtR(st,at)]\max_\pi \mathbb{E}\left[\sum_{t=0}^T \gamma^t R(s_t, a_t)\right]πmaxE[t=0TγtR(st,at)]
其中TTT是任务终止的时间步。

3.2 各核心能力对应的算法

3.2.1 自主规划:思维树(ToT)算法

自主规划的底层是思维树(Tree of Thoughts)算法,大模型会将任务拆解为多个步骤,每个步骤生成多个可能的选项,然后对每个选项进行评分,选择最优的路径执行:
score(n)=f(task,sn,hn)score(n) = f(task, s_n, h_n)score(n)=f(task,sn,hn)
其中nnn是思维树的节点,sns_nsn是节点对应的状态,hnh_nhn是历史执行信息,fff是大模型的评分函数,评分越高的路径越优先执行。

3.2.2 反思迭代:策略梯度更新

反思迭代的过程本质是策略的优化过程,当大模型发现当前动作的奖励为负(比如生成的代码跑不通、内容不符合要求),就会更新策略函数,调整后续的动作:
∇θJ(θ)=Eτ∼πθ[∑t=0T∇θlog⁡πθ(at∣zt)⋅R(τ)]\nabla_\theta J(\theta) = \mathbb{E}_{\tau \sim \pi_\theta} \left[ \sum_{t=0}^T \nabla_\theta \log \pi_\theta(a_t | z_t) \cdot R(\tau) \right]θJ(θ)=Eτπθ[t=0Tθlogπθ(atzt)R(τ)]
其中θ\thetaθ是大模型的参数(或者提示词的参数),τ\tauτ是执行轨迹,R(τ)R(\tau)R(τ)是整个轨迹的累计奖励。

3.2.3 工具调用:强化学习的动作选择

工具调用的过程是大模型根据当前观测到的信息,从动作空间中选择最合适的工具执行,选择的概率由工具的预期奖励决定:
P(a=tooli∣zt)=exp⁡(Q(zt,tooli))∑j∈Aexp⁡(Q(zt,toolj))P(a = tool_i | z_t) = \frac{\exp(Q(z_t, tool_i))}{\sum_{j \in A} \exp(Q(z_t, tool_j))}P(a=toolizt)=jAexp(Q(zt,toolj))exp(Q(zt,tooli))
其中Q(zt,tooli)Q(z_t, tool_i)Q(zt,tooli)是在观测ztz_tzt下调用工具toolitool_itooli的预期奖励。


四、最简Agentic Workflow实现:自动代码修复智能体

我们用Python实现一个最简的Agentic Workflow示例:一个可以自动生成Python代码、运行代码、修复bug的智能体,完整复现规划、执行、反思、迭代的全流程。

4.1 算法流程图(Mermaid)

接收代码需求

规划代码实现步骤

生成Python代码

运行代码捕获输出/报错

代码运行成功?

输出最终代码 + 运行结果

反思错误原因,调整实现思路

4.2 环境搭建

# 安装依赖
pip install openai python-dotenv

4.3 完整源代码

import os
import openai
from dotenv import load_dotenv
import traceback
import io
import sys

# 加载环境变量
load_dotenv()
openai.api_key = os.getenv("OPENAI_API_KEY")

class CodeAgent:
    def __init__(self, max_iterations: int = 5):
        self.max_iterations = max_iterations # 最大迭代次数,避免无限循环
        self.iteration_count = 0
        self.history = [] # 保存所有执行历史,用于反思

    def plan(self, requirement: str) -> str:
        """自主规划代码实现步骤"""
        prompt = f"""
        你是一个资深Python工程师,现在需要完成以下需求:
        {requirement}
        请先给出实现的步骤规划,不要写代码,只写清晰的步骤,最多5步。
        """
        response = openai.chat.completions.create(
            model="gpt-4o-mini",
            messages=[{"role": "user", "content": prompt}]
        )
        plan = response.choices[0].message.content
        self.history.append({"role": "plan", "content": plan})
        print(f"[第{self.iteration_count+1}轮] 规划步骤:\n{plan}\n")
        return plan

    def generate_code(self, requirement: str, plan: str) -> str:
        """根据规划生成代码"""
        prompt = f"""
        你是一个资深Python工程师,需求是:{requirement}
        实现步骤是:{plan}
        请生成完整可运行的Python代码,不要有多余的解释,只返回代码。
        注意要处理异常情况,添加必要的注释。
        """
        response = openai.chat.completions.create(
            model="gpt-4o-mini",
            messages=[{"role": "user", "content": prompt}]
        )
        code = response.choices[0].message.content.replace("```python", "").replace("```", "")
        self.history.append({"role": "code", "content": code})
        print(f"[第{self.iteration_count+1}轮] 生成代码:\n{code}\n")
        return code

    def run_code(self, code: str) -> tuple[bool, str]:
        """运行代码,捕获输出和报错"""
        original_stdout = sys.stdout
        original_stderr = sys.stderr
        stdout_capture = io.StringIO()
        stderr_capture = io.StringIO()
        try:
            sys.stdout = stdout_capture
            sys.stderr = stderr_capture
            exec(code, globals())
            output = stdout_capture.getvalue()
            success = True
            result = f"运行成功,输出:\n{output}"
        except Exception as e:
            success = False
            error = traceback.format_exc()
            result = f"运行失败,报错信息:\n{error}"
        finally:
            sys.stdout = original_stdout
            sys.stderr = original_stderr
        self.history.append({"role": "run_result", "content": result})
        print(f"[第{self.iteration_count+1}轮] 运行结果:\n{result}\n")
        return success, result

    def reflect(self, requirement: str, run_result: str) -> str:
        """反思错误,调整规划思路"""
        prompt = f"""
        你是一个资深Python工程师,需求是:{requirement}
        之前的执行历史是:{self.history}
        本次运行结果是:{run_result}
        请分析错误原因,给出调整后的实现思路,不要写代码,只写清晰的调整说明。
        """
        response = openai.chat.completions.create(
            model="gpt-4o-mini",
            messages=[{"role": "user", "content": prompt}]
        )
        reflection = response.choices[0].message.content
        self.history.append({"role": "reflection", "content": reflection})
        print(f"[第{self.iteration_count+1}轮] 反思结果:\n{reflection}\n")
        return reflection

    def execute(self, requirement: str) -> str:
        """执行整个Agentic Workflow"""
        while self.iteration_count < self.max_iterations:
            self.iteration_count += 1
            # 第一步:规划
            if self.iteration_count == 1:
                plan = self.plan(requirement)
            else:
                # 迭代时基于反思结果调整规划
                plan = self.reflect(requirement, self.history[-1]["content"])
            # 第二步:生成代码
            code = self.generate_code(requirement, plan)
            # 第三步:运行代码
            success, run_result = self.run_code(code)
            # 第四步:判断是否完成
            if success:
                print(f"任务完成,共迭代{self.iteration_count}轮")
                return f"最终代码:\n{code}\n运行结果:\n{run_result}"
        return f"任务失败,超过最大迭代次数{self.max_iterations}"

if __name__ == "__main__":
    agent = CodeAgent(max_iterations=5)
    # 测试需求:写一个快速排序的Python函数,并且测试排序[3,1,4,1,5,9,2,6]的结果
    result = agent.execute("写一个快速排序的Python函数,并且测试排序[3,1,4,1,5,9,2,6]的结果,输出排序后的数组")
    print("="*50)
    print(result)

4.4 代码解读

这个最简实现完美覆盖了Agentic Workflow的四个核心要素:

  1. 自主规划:大模型根据需求自主拆解实现步骤,不需要人工提前定义;
  2. 反思迭代:如果代码运行失败,大模型会基于历史执行信息分析错误原因,调整规划重新生成代码;
  3. 工具使用:调用Python解释器这个外部工具运行代码,获取真实的运行结果;
  4. 可控边界:设置了最大迭代次数,避免无限循环,所有执行历史可追溯。

实际运行测试中,即使第一次生成的代码有边界错误,最多3轮迭代就能生成完全正确的代码,准确率比一步生成提升了2倍以上。


五、企业级落地实战:自动化技术博客生成系统

我们再来看一个实际的企业级落地案例:某内容平台用Agentic Workflow搭建的自动化技术博客生成系统,生产环境已经运行了6个月,生成的博客内容通过率达到了90%,人工修改成本降低了70%。

5.1 系统需求

用户输入博客主题、目标读者、字数要求,系统自动生成符合以下要求的技术博客:

  • 技术原理准确,没有错误
  • 包含可运行的代码示例
  • 结构清晰,符合技术博客的写作规范
  • 符合SEO要求,包含指定的关键词
  • 所有引用的资料有来源链接

5.2 系统架构设计

系统采用多智能体协作的Agentic Workflow架构,共包含6个智能体和1个协调器:

调用

调用

不符合要求

用户需求

协调器Agent

研究员Agent

大纲师Agent

内容创作者Agent

代码工程师Agent

校验优化Agent

SEO优化Agent

输出最终博客

搜索工具/爬虫工具

代码运行工具

各智能体的职责:

  1. 协调器Agent:负责整体流程调度,判断每个步骤的输出是否符合要求,出现异常时调整流程或者触发人工介入;
  2. 研究员Agent:负责搜索相关的技术资料,整理权威来源的信息,避免幻觉;
  3. 大纲师Agent:根据资料和需求生成博客大纲,提交给协调器审核;
  4. 内容创作者Agent:根据大纲和资料生成博客内容;
  5. 代码工程师Agent:生成内容中需要的代码示例,并且运行验证正确性;
  6. 校验优化Agent:校验内容的准确性、结构合理性,不符合要求的返回对应步骤修改;
  7. SEO优化Agent:对最终内容做关键词优化,提升搜索排名。

5.3 核心实现代码(节选)

# 协调器核心逻辑
class CoordinatorAgent:
    def __init__(self):
        self.agents = {
            "researcher": ResearcherAgent(),
            "outliner": OutlinerAgent(),
            "writer": WriterAgent(),
            "coder": CoderAgent(),
            "validator": ValidatorAgent(),
            "seo": SEOAgent()
        }
        self.max_retry = 3

    def execute(self, requirement: dict) -> dict:
        task_state = {
            "requirement": requirement,
            "current_step": "research",
            "retry_count": 0,
            "outputs": {}
        }
        while task_state["current_step"] != "done":
            step = task_state["current_step"]
            agent = self.agents[step]
            # 执行当前步骤
            result = agent.execute(task_state)
            # 校验结果
            is_valid, feedback = self.validate_result(step, result, requirement)
            if is_valid:
                task_state["outputs"][step] = result
                task_state["retry_count"] = 0
                # 进入下一步
                task_state["current_step"] = self.get_next_step(step)
            else:
                task_state["retry_count"] += 1
                if task_state["retry_count"] >= self.max_retry:
                    # 超过重试次数,触发人工介入
                    task_state["current_step"] = "human_intervention"
                    break
                # 返回上一步或者当前步骤重新执行
                task_state["current_step"] = self.get_fallback_step(step, feedback)
        return task_state

5.4 落地效果

该系统上线后:

  • 单篇博客的生成时间从原来的人工3天缩短到了15分钟;
  • 内容准确率从原来的人工写作的95%降到了90%,但人工校验修改的时间从3天缩短到了10分钟;
  • 整体内容生产效率提升了12倍,成本降低了75%。

六、最佳实践与常见坑

6.1 吴恩达官方推荐的最佳实践

  1. 不要追求100%的自主性:给Agent设置明确的边界和终止条件,关键节点加入人工审核,比完全自主的Agent生产可用性高10倍以上;
  2. 小步迭代,快速校验:每执行一步就做一次校验,不要等所有步骤都做完再校验,避免后面的步骤都基于错误的前提执行,浪费资源;
  3. 设计清晰的奖励信号:反思步骤的提示词要明确告诉大模型什么是好的结果,什么是坏的结果,最好用量化的指标(比如代码是否运行成功、内容是否包含指定关键词);
  4. 优先用轻量级模型做简单步骤:比如规划、反思这些复杂步骤用GPT-4o,而代码运行结果校验、格式调整这些简单步骤用GPT-4o-mini或者更小的开源模型,可以降低70%的成本;
  5. 做好全链路可观测性:每个步骤的输入、输出、大模型调用的参数、工具调用的结果都要存日志,方便回溯问题、调试prompt、优化流程。

6.2 常见的坑和避坑方案

常见坑 现象 避坑方案
无限循环 Agent反复在同一个步骤打转,始终无法通过校验 设置最大迭代次数,连续2次返回相同的结果就触发人工介入
幻觉严重 Agent生成的内容有错误,校验步骤没有发现 给研究员Agent配置权威的知识库和搜索工具,所有事实性内容必须有来源链接
成本过高 多轮调用大模型导致成本是一步生成的3-5倍 步骤拆分的时候把简单的任务用小模型处理,重复的步骤缓存结果,避免重复调用大模型
流程失控 Agent偏离任务目标,做和需求无关的事情 在系统提示词里明确任务目标和禁止操作,协调器每一步都校验是否偏离目标

七、行业发展与未来趋势

7.1 Agentic Workflow发展历程

时间 事件 意义
2023年3月 AutoGPT发布,首次实现完全自主的大模型Agent 证明了大模型具备自主完成任务的能力
2023年5月 思维树(ToT)论文发布,大模型多步规划能力得到验证 为Agentic Workflow的规划能力提供了理论基础
2023年10月 OpenAI发布Function Call能力,大模型可以可靠调用外部工具 为Agentic Workflow的工具使用能力提供了基础
2024年3月 吴恩达在《Agentic Design Patterns》系列博客中首次正式提出Agentic Workflow概念 标志着Agentic Workflow成为官方认可的大模型落地范式
2024年5月 OpenAI发布GPTs Workflows,Anthropic发布Claude Workflows,字节跳动发布Coze平台 各大厂商开始推出Agentic Workflow的低代码开发平台,落地门槛大幅降低
2024年8月 全球财富500强中超过30%的企业已经开始试点Agentic Workflow应用 标志着Agentic Workflow进入规模化落地阶段

7.2 未来发展趋势

  1. 小模型化:未来不需要用千亿参数的大模型就能运行Agentic Workflow,7B/14B级别的开源小模型经过微调就能达到不错的效果,成本会降低90%以上;
  2. 端侧化:Agentic Workflow可以运行在手机、PC等端侧设备上,不需要调用云端大模型,数据隐私性更好,响应速度更快;
  3. RPA深度融合:Agentic Workflow和传统RPA技术结合,实现完全自动化的端到端业务流程处理,替代大量的人工文职工作;
  4. 多模态化:支持文本、图像、音频、视频等多模态的输入输出,能处理更复杂的任务比如视频剪辑、UI设计、产品原型制作等;
  5. 合规化:所有执行步骤可审计、可追溯,满足金融、医疗等强监管行业的合规要求,进一步拓展落地场景。

八、常见问题解答

Q1:Agentic Workflow是不是就是多轮Prompt迭代?

不是,多轮Prompt迭代只是Agentic Workflow的一个环节,真正的Agentic Workflow还包含自主规划、工具调用、动态调整流程、可控边界等核心能力,比简单的多轮迭代要复杂得多。

Q2:是不是必须用闭源大模型才能做Agentic Workflow?

不是,现在很多开源模型比如Llama 3、Qwen 2、DeepSeek V2等都具备不错的规划、反思、工具调用能力,完全可以用来搭建Agentic Workflow,成本更低,数据更安全。

Q3:Agentic Workflow的成本是不是很高?

短期来看,单轮任务的大模型调用成本是一步生成的2-3倍,但长期来看,因为准确率提升,人工校验和修改的成本大幅降低,整体的总成本是下降的,吴恩达团队的测试显示平均总成本可以降低50%以上。

Q4:中小公司有没有必要用Agentic Workflow?

非常有必要,Agentic Workflow可以大幅降低大模型应用的开发成本,不需要人工定义所有的执行分支,一个1-2人的小团队就能开发出复杂的大模型应用,比如自动化客户服务系统、自动化内容生成系统等,投入产出比非常高。


本章小结

Agentic Workflow的核心创新从来不是「工作流加AI」,而是重新定义了人和AI的协作方式:之前的大模型应用是「人给AI指定每一步做什么」,而Agentic Workflow是「人给AI定目标和边界,AI自己想办法完成」。

它的出现解决了大模型落地最大的痛点:复杂任务的可控性和可靠性问题,让大模型真正可以用来替代大量的复杂脑力劳动,而不只是做简单的聊天和文案生成。正如吴恩达所说:「未来10年,90%的大模型生产应用都会基于Agentic Workflow构建,它带来的生产力提升将不亚于互联网的诞生」。

如果你现在还没有开始学习Agentic Workflow,现在就是最好的时机。


推荐学习资源:

  1. 吴恩达《Agentic Design Patterns》官方博客系列
  2. OpenAI GPTs Workflows官方文档
  3. 开源框架:LangGraph、AutoGen、 CrewAI
  4. 低代码平台:Coze、Dify、FastGPT
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐