本文系统讲解了 Agent 的核心能力——规划,从 CoT、ToT 到 GoT,梳理了这些方法在推理结构上的演进脉络。文章指出规划能力是 Agent 区别于普通 Chatbot 的关键,并详细解析了每种方法解决的问题、相互关系及工程选型。CoT 通过显式输出推理步骤激活逐步推理,Self-Consistency 多链路投票提高鲁棒性,ToT 树状分支探索允许回溯,GoT 图结构自由推理支持聚合。最后,文章总结了工程选型原则:先用简单方法跑通,再根据效果瓶颈升级。对于想要提升大模型应用开发能力的小白程序员,本文提供了实用的进阶路线。

1、题目分析

这道题考察的是你对 Agent 核心能力之一——规划(Planning)的系统性理解。面试官提到了 CoT、ToT、GoT 这些关键词,但他真正想听的不是你把这几个缩写展开然后各背一段定义,而是你能不能把这些方法放到一条演进脉络上,讲清楚它们各自解决了什么问题、彼此之间是什么关系、在实际 Agent 工程中怎么选型。换句话说,这道题的答题层次是:先讲清楚"为什么规划能力重要",再沿着"思维结构从简单到复杂"这条线把各种方法串起来,最后落到工程实践中的选型考量。

1.1 为什么规划能力是 Agent 的核心

在聊具体方法之前,我们先要理解"规划"在 Agent 体系中扮演的角色。一个完整的 Agent 通常包含四大能力模块:感知(Perception)、规划(Planning)、记忆(Memory)和行动(Action)。其中规划是真正的"大脑",它决定了 Agent 面对一个复杂任务时,应该把任务拆解成哪些子步骤、以什么顺序执行、遇到问题时怎么调整策略。

如果没有规划能力,Agent 就只能做简单的"一问一答"——用户说什么它就做什么,完全不具备处理多步骤复杂任务的能力。你可以把规划能力理解为 Agent 和普通 Chatbot 之间的分水岭:Chatbot 是被动应答,Agent 是主动规划并执行。

而赋予 LLM 规划能力的核心方法,本质上都是在回答同一个问题:如何组织 LLM 的推理过程,使它能够系统地分解和解决复杂问题? 不同方法的区别在于,它们对"推理过程"的结构化程度不同——从最简单的线性链条,到树状分支,再到任意图结构,复杂度逐步递增,适用场景也各不相同。

1.2 Chain-of-Thought(CoT):线性链式推理

CoT 是一切的起点,由 Google 在 2022 年的论文中正式提出。在 CoT 出现之前,我们让大模型回答问题的方式是"直接给答案",也就是所谓的 Standard Prompting。比如问"Roger 有 5 个网球,又买了 2 罐,每罐 3 个,他现在有多少个?“,模型直接输出"11”。这种方式对于简单问题没问题,但遇到需要多步推理的问题就经常出错,因为模型被迫在一次前向传播中完成所有计算。

CoT 的核心洞察非常简单但深刻:让模型把中间推理步骤显式地写出来。还是刚才那个问题,加上 CoT 之后模型会输出"Roger 一开始有 5 个球,2 罐每罐 3 个就是 6 个,5 + 6 = 11"。看起来只是多输出了几句话,但效果提升非常显著,因为每一步中间结果都变成了下一步推理的"垫脚石",大幅降低了推理难度。

CoT 有两种主要的触发方式。一种是 Few-shot CoT,在 prompt 中给几个带推理过程的示例,模型就会"模仿"这种推理风格。另一种是 Zero-shot CoT,更简单粗暴,只需要在问题后面加一句"Let’s think step by step",模型就会自动展开推理链。这说明大模型内部其实已经具备了逐步推理的能力,CoT 只是通过 prompt 把这个能力"激活"了。

但是 CoT 有一个本质局限:它的推理过程是单条链路的,线性的,不可回退的。模型从第一步开始,一步接一步地往下推,如果中间某一步推错了,后面所有步骤都会跟着错下去,没有任何"纠错"或"换条路试试"的机制。这对于只有一条正确推理路径的简单任务来说够用了,但对于有多种可能解法的复杂任务,就显得力不从心了。

1.3 Self-Consistency(自洽性采样):多条链路投票

在 CoT 的基础上,一个很自然的改进思路是:既然一条链可能走错,那我多生成几条链,最后投票选最靠谱的不就行了? 这就是 Self-Consistency 方法。

Self-Consistency 的做法是:对同一个问题,让模型用 CoT 的方式生成多条不同的推理链(通过调高 temperature 来引入随机性),每条链都会得出一个最终答案,然后对所有答案进行多数投票,票数最多的答案作为最终输出。

这个方法的直觉来自于人类解题的经验——如果你用三种不同的方法解一道数学题,三种方法都得到了同一个答案,那这个答案大概率是对的。Self-Consistency 用统计的方式提高了推理的鲁棒性,在数学推理和常识推理任务上效果很好。

但它的局限也很明显:多条链之间是完全独立的,不会互相交流信息。也就是说,如果第一条链在某一步发现了一个关键线索,第二条链在推理过程中完全用不到这个线索。每条链都是闷头自己推,最后只是在结果层面做投票聚合。这显然是一种浪费——理想情况下,我们希望不同推理路径之间能够共享中间信息、互相启发。

1.4 Tree-of-Thought(ToT):树状分支探索

ToT 就是为了解决 CoT "一条路走到黑"和 Self-Consistency "多条路互不相干"这两个问题而提出的。它由 Yao 等人在 2023 年的论文中正式提出,核心思想是:把推理过程从一条链变成一棵树,在每一步都可以产生多个分支候选,然后通过评估来选择最有希望的分支继续探索,必要时还可以回溯

具体来说,ToT 的工作流程是这样的:在推理的每一步,模型会生成多个可能的"思维节点"(Thought),每个节点代表一种可能的推理方向。然后,模型会对这些候选节点进行自我评估(Self-evaluation),判断每个方向的前景如何——是"很有希望"、“还行"还是"肯定不对”。基于评估结果,系统选择最优的一个或几个节点继续往下展开,形成新的分支。如果某个分支推着推着发现走不通了,还可以回溯到之前的节点,换一个方向继续探索。

这个过程本质上就是经典算法中的搜索——你可以用 BFS(广度优先搜索)来逐层展开所有可能性,也可以用 DFS(深度优先搜索)来沿着一个方向深入探索、走不通再回头。ToT 把 LLM 的推理过程变成了一个可控的搜索问题。

用一个例子来说明 ToT 的威力。假设我们让模型做一个"24 点游戏"——给定 4 个数字,用加减乘除组合成 24。CoT 可能一条路算下去,发现算不出来就卡住了。但 ToT 会在每一步尝试多种运算组合,评估哪些中间结果更有可能通向 24,优先探索那些有希望的分支,走不通就回退换路,直到找到答案。

1.5 Graph-of-Thought(GoT):图结构的自由推理

如果说 CoT 是一条线、ToT 是一棵树,那 GoT 就是一张任意有向图。GoT 由 Besta 等人在 2023 年提出,它进一步打破了树结构的层级限制,允许推理节点之间形成更自由、更复杂的连接关系。

GoT 相比 ToT 最关键的新增能力是思维的聚合(Aggregation)。在树结构中,信息只能从父节点流向子节点,不同分支之间是隔离的。但在很多实际推理场景中,我们需要把多个分支的中间结论汇总合并成一个新的结论——这就要求不同分支之间能够"连线"。GoT 通过引入聚合操作,允许多个思维节点的输出合并成一个新节点的输入,形成类似 DAG(有向无环图)甚至包含环路的图结构。

举个例子:假设你要分析一篇长文档的核心观点。你可以先用不同的分支分别提取各段落的关键信息(这是 ToT 也能做的"发散"),然后把各段落的关键信息聚合成一个全局摘要(这是 GoT 独有的"收敛"),最后基于全局摘要再进一步推理。这种"先发散再收敛"的模式在树结构中是做不到的。

从图论的角度来看,CoT 是一条路径(Path),ToT 是一棵树(Tree),GoT 是一张图(Graph)。路径是树的特例,树是图的特例,所以 GoT 在理论上的表达能力是最强的。但表达能力强也意味着搜索空间更大、控制更复杂,实际工程中需要更精细的调度策略。

1.6 其他重要的规划方法

除了上面这条"链→树→图"的主线之外,还有几种重要的规划方法需要了解:

Plan-and-Execute(规划-执行分离) 是一种偏工程实践的策略。它的思路是把规划和执行拆成两个独立阶段:先让一个"Planner LLM"对任务做全局规划,输出一个完整的步骤清单,然后让一个"Executor LLM"逐步执行每个步骤。这种方法的好处是规划阶段可以纵览全局,不会被执行过程中的细节干扰,适合那些步骤较多但逻辑相对确定的任务,比如"帮我写一篇行业分析报告"这种。LangChain 和 LangGraph 中都有对应的 Plan-and-Execute Agent 实现。

Reflexion(反思机制) 则是在规划执行的基础上加入了"复盘"环节。当 Agent 执行一个任务失败后,它不会简单地重试,而是先回顾整个推理和执行过程,总结出"哪里做错了、下次应该怎么改进"的经验教训,然后把这些反思存入记忆,在下一次尝试中参考。Reflexion 本质上赋予了 Agent 从失败中学习的能力,类似于人类的"吃一堑长一智"。

LLM+P(LLM + 经典规划器) 是一种混合方法,它把 LLM 的自然语言理解能力和经典 AI 规划算法(如 PDDL 规划器)的严格推理能力结合在一起。LLM 负责把用户的自然语言需求转化为结构化的规划问题描述(PDDL 格式),然后交给经典规划器去求解最优行动序列,最后 LLM 再把结果翻译成自然语言返回给用户。这种方法在需要严格逻辑保证的场景(比如机器人路径规划)中有独特优势。

1.7 工程选型的思考

在实际 Agent 开发中,选择哪种规划方法取决于具体场景。对于大多数常规任务,CoT 配合 ReAct 框架就足够了,它简单高效、延迟低。当任务涉及复杂的多步推理,且存在多种可能的解题路径时,ToT 可以通过搜索和评估找到更优解。GoT 目前在工程中的应用还相对较少,更多停留在研究阶段,但它的聚合思想在需要"先分后合"的任务中(如多文档摘要、多源数据分析)很有启发意义。

Plan-and-Execute 在企业级应用中非常实用,因为它将规划和执行解耦,便于分别优化和调试。Reflexion 适合那些需要 Agent 持续改进、从错误中学习的长期运行场景。而 LLM+P 则在机器人、自动化流程等需要严格逻辑保证的领域有独特价值。

一个经验性的选型原则是:先用最简单的方法跑通,再根据效果瓶颈针对性地升级。不要一上来就用最复杂的方法,因为复杂度本身就是成本——不仅是计算成本,还有工程维护成本和调试难度。

2、 参考回答

Agent 的规划能力本质上是解决"如何让 LLM 系统性地分解和执行复杂任务"这个问题,目前主流方法可以沿着一条推理结构从简单到复杂的演进线来理解。

最基础的是 CoT(Chain-of-Thought),它通过让模型显式输出中间推理步骤来激活逐步推理能力,但本质上是单条链路的线性推理,中间一步出错后续就全废了。在此基础上,Self-Consistency 通过多次采样生成多条独立推理链然后多数投票来提高鲁棒性,但不同链之间不共享中间信息。ToT(Tree-of-Thought) 是一个关键跃升,它把推理过程从链变成了树——每一步都生成多个候选方向,通过 LLM 自我评估来选择最有希望的分支继续展开,走不通还能回溯,本质上是把 LLM 推理变成了一个可控的搜索问题,用 BFS 或 DFS 策略来探索推理空间。GoT(Graph-of-Thought) 进一步打破了树的层级限制,允许不同分支的思维节点进行聚合,形成任意有向图结构,核心突破在于支持了"先发散再收敛"的推理模式,表达能力最强但控制复杂度也最高。

除了这条"链→树→图"的主线,工程实践中还有几种非常重要的方法:Plan-and-Execute 把规划和执行分成两个阶段,先全局规划再分步执行,适合步骤多但逻辑相对确定的场景;Reflexion 加入了自我反思机制,Agent 失败后会总结经验教训存入记忆,下次避免同样的错误。在实际选型上,我的经验是先用最简单的方法跑通——大部分场景下 CoT 配合 ReAct 就够用了,然后再根据效果瓶颈针对性升级,因为复杂度本身就是成本,不仅是计算成本,还有工程维护和调试的代价。

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。
图片
图片
对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

图片

👇👇扫码免费领取全部内容👇👇

在这里插入图片描述

最后

1、大模型学习路线

img

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

在这里插入图片描述

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

在这里插入图片描述

4、 AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

5、面试试题/经验

img

【大厂 AI 岗位面经分享(107 道)】

img

【AI 大模型面试真题(102 道)】

img

【LLMs 面试真题(97 道)】

img

6、大模型项目实战&配套源码

img

适用人群

在这里插入图片描述

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

    在这里插入图片描述

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐