12个Agentic核心设计模式全解析(非常详细),搞懂Claude Code看这篇就够了!
Claude Code 源码泄露后,让我们第一次比较完整地看到,一个生产级 AI 编码助手内部是怎么实现的。这段时间,技术圈几乎都在研究它的源代码。
但相比代码本身,我更在意的是背后的设计思路。这些东西不是某个产品特有的功能,而是更通用的一些模式。模型可以换,工具也会变,但这些设计很可能会一直存在。
Kubernetes Patterns[1] 和 Prompt Patterns[2] 的作者 Bilgin lbryam 从源码里整理了 12 个可以复用的设计模式,分成四类:记忆与上下文、工作流与编排、工具与权限、自动化。

记忆与上下文
这五个模式其实是一条逐步演进的路径:一开始只是给 Agent 一份固定的规则文件,然后按目录去限制这些规则的作用范围,再把记忆做成分层结构,接着在后台做清理,最后在上下文快满的时候对对话本身做压缩。
1. 持久化指令文件模式(Persistent Instruction File Pattern)
没有持久化指令文件时,每个 Agent 会话都像从零开始。同样的约定、命令和边界,需要一遍遍重复,甚至第几次对话还会犯和第一次一样的错误。
这个模式的做法其实很直接:放一个项目级的配置文件,每次会话自动加载。里面写清楚构建命令、测试方式、架构规则、命名约定这些内容。文件跟着代码仓库走,而不是靠人每次复制粘贴。

适用场景:需要在多个会话里反复处理同一个代码库。
权衡点:有维护成本。这个文件需要跟着项目一起更新,一旦过时,反而会误导 Agent,还不如没有。
2. 作用域上下文组装模式(Scoped Context Assembly Pattern)
一个指令文件在小项目里够用,但项目一大就容易出问题:要么越写越长,最后没人看;要么写得太泛,对具体目录又没什么用。
这个模式的思路是把指令拆到不同作用域里:组织级、用户级、项目根目录、父目录、子目录。Agent 会根据当前所在的位置,动态加载对应的规则。这样既能保持全局一致,又能允许局部有差异。
另外,通过导入的方式,可以把大的指令集拆开管理,避免重复。

适用场景:Monorepo、多语言项目,或者不同目录有不同规范的代码库。
权衡点:可读性会变差。规则分散在多个文件里后,很难一眼看清 Agent 实际加载了哪些内容,不同作用域之间也可能出现冲突。
3. 分层记忆模式(Tiered Memory Pattern)
如果一个 Agent 什么都用同一种方式记住,最后往往什么都记不好。
把所有记忆都塞进上下文,每次会话都会浪费 token,还容易撞上窗口限制,重要信息反而被淹没。
这个模式的做法是把记忆分层:一个精简的索引始终放在上下文里(比如控制在几百行以内),和当前任务相关的内容按需加载,完整的历史记录则留在磁盘上,需要时再去查。

适用场景:需要跨多次会话保留偏好、决策或状态的 Agent。
权衡点:实现会更复杂。需要想清楚信息该放哪一层,什么时候上升或下沉,以及怎么保证索引和实际数据是同步的。
4. 记忆整合模式(Dream Consolidation Pattern)
即使做了分层,记忆用久了还是会「变乱」:重复内容越来越多,旧信息和新信息打架,索引也会慢慢膨胀。
这个模式的思路是加一个后台整理机制,在空闲时定期做清理:去重、删旧、重组结构,让记忆保持干净、可用。可以理解为给 Agent 做一次「垃圾回收」。
像泄露代码里提到的 autoDream,就是在做类似的事情:合并重复、处理冲突、控制索引规模。

适用场景:Agent 会长期运行、持续积累记忆,而且不方便靠人工去维护。
权衡点:整理本身也要消耗 token,而且不一定完全准确。如果清理太激进,可能会把有用的信息一起删掉。
5. 渐进式上下文压缩模式(Progressive Context Compaction Pattern)
对话一长,很快就会碰到上下文窗口的上限。要么早期内容被挤掉,要么任务直接做不下去,这两种情况都挺难受。
这个模式的做法是「分层压缩」:新的对话尽量保留细节,稍旧的内容做轻量总结,再往前的就逐步压缩,甚至折叠成很短的摘要。
可以理解为越久远的信息,保留得越粗。像源码里提到的几层压缩,本质上也是这个思路,只是做得更细。

适用场景:对话轮次比较多(比如 20~30 轮以上)的任务。
权衡点:压缩一定是有损的。信息在一轮轮总结中会丢失,如果后面又需要这些细节,Agent 可能会「编」而不是承认不知道。
工作流与编排
这一组模式的核心其实就是一个词:分离。
把读取和写入拆开,把「查资料」和「改代码」的上下文拆开,把顺序执行和并行执行也拆开。这样做的好处是,随着任务变复杂,系统不会越来越乱。
大多数 Agent 的默认做法是把这些事情混在一起,刚开始可能没问题,但任务一多,质量就很容易下降。
6. 探索-规划-行动循环模式(Explore-Plan-Act Loop Pattern)
如果一上来就让 Agent 改代码,很容易出问题:理解不完整,改错文件,漏掉依赖,或者直接忽略现有的实现方式。
这个模式的做法是把流程拆成三步,而且权限逐步放开:
- • 先探索,只读代码、查信息、摸清结构
- • 再规划,和用户对齐思路
- • 最后再动手改代码
本质上就是先搞清楚,再决定怎么做,最后再执行。

适用场景:不熟悉的代码库,或者涉及多个文件的复杂修改。
权衡点:会慢一点。多了探索和规划这两步,小任务会显得有点「流程过重」。
7. 上下文隔离子智能体模式(Context-Isolated Subagents Pattern)
会话一长,所有东西都会堆在同一个上下文里:调研内容、规划讨论、代码修改、日志输出,全混在一起。等真正开始改代码时,很多无关信息已经在干扰判断了。
这个模式的做法是把任务拆给不同的子 Agent,每个都有自己的上下文和权限:
- • 做调研的只负责看和分析,不能改代码
- • 做规划的只负责设计方案
- • 真正执行的才有完整工具权限
每个子 Agent 只接触自己需要的信息,避免被「流噪声」影响。

适用场景:长会话、多阶段流程,或者不同阶段对上下文要求差异很大的任务。
权衡点:需要额外协调。主 Agent 要决定每一步传什么信息,传少了会丢细节,传多了又回到上下文污染的问题。
8. 分支-合并并行模式(Fork-Join Parallelism Pattern)
有些任务其实可以拆开做,但如果 Agent 一次只能处理一件事,最后还是会变成一条一条顺序执行。比如跨很多文件的改动,本来互不影响,却要排队完成。
这个模式的思路是把任务拆成多个分支并行处理:每个子 Agent 在独立的代码副本里工作(比如用 git worktree),互不干扰。等都完成后,再把结果合并回来。

适用场景:可以拆成多个互不依赖子任务的场景。
权衡点:合并会更复杂。如果不同分支改到了同一部分代码,冲突可能比顺序处理更难解决。
工具与权限
如果说前面的记忆模式是在解决「Agent 知道什么」,工作流是在解决「它怎么做事」,那这一部分关注的就是「它能做什么」。
从泄露的代码来看,在工具设计和权限控制上,已经细到很具体的粒度,远比现在大多数 Agent 框架要更严格。
9. 渐进式工具扩展模式(Progressive Tool Expansion Pattern)
如果一开始就把所有工具都开放给 Agent,反而会变得更难用:工具一多,选择成本变高,也更容易选错。
这个模式的做法是先给一小部分常用工具,够用就行;其他工具按需再打开。比如读写文件、搜索这些作为默认能力,复杂一点的工具等用到再加载。

适用场景:工具很多,但大多数任务其实只用到一小部分。
权衡点:需要额外判断什么时候该开新工具。如果开得太晚,Agent 可能已经走了弯路,浪费了一些轮次。
10. 命令风险分类模式(Command Risk Classification Pattern)
如果让 Agent 随便执行 shell 命令,风险很高;但如果每一步都让用户确认,很快就会点到麻木。
这个模式的做法是在执行前做一层「风险判断」:低风险的命令自动放行,高风险的才需要人工确认或直接拦截。
实现上通常是对命令做解析(比如看做什么操作、带了哪些参数、影响范围多大),再结合规则去判断风险等级。

适用场景:Agent 能执行 shell 命令,或者会操作外部系统。
权衡点:规则不可能覆盖所有情况,需要不断调整;有时候会误判,要么放过风险操作,要么拦住本来安全的命令。
11. 单用途工具设计模式(Single-Purpose Tool Design Pattern)
如果所有操作都走通用 shell(比如 cat、sed、grep),问题会慢慢出现:命令不直观、不好审查,也更难做权限控制。对模型来说,也更容易用错。
这个模式的做法是把常见操作拆成专门的工具,比如读文件、改文件、搜索、匹配路径,各自都有明确的输入和边界。这样不仅更好理解,也更容易限制权限。

适用场景:需要频繁做文件操作或搜索的 Agent。
权衡点:灵活性会受限。专用工具不可能覆盖所有情况,所以还是需要保留通用 shell 作为兜底。
自动化
最后这一类可以单独拿出来说,因为它其实贯穿前面的所有部分。
不管是记忆、工作流,还是工具,本质上都有一个共同问题:有些步骤是每次都必须执行的,但不能指望模型每次都记得。
12. 确定性生命周期钩子模式(Deterministic Lifecycle Hooks Pattern)
有些事情是必须每次都做的,比如:改完代码跑一遍格式化、执行前做校验、切换目录时重新加载配置。
但这些步骤如果只是写在提示词里,基本不可靠。模型会忘、会跳过,甚至在复杂上下文里「理解偏了」。
这个模式的做法是:把这些动作挂到 Agent 生命周期的关键节点上自动执行,完全不依赖提示词。比如工具调用前后、会话开始、工作目录变化时,系统都会触发对应的钩子。
简单来说,凡是「不能出错、不能漏」的事情,都不该交给模型记,而应该交给系统兜底。

适用场景:存在必须严格执行、不能遗漏的步骤
权衡点:出了问题不太好排查,因为这些逻辑是在对话之外跑的
结语:Harness
这些模式不是空谈的理论,而是从生产级代码中提炼出来的架构智慧。
内存怎么分层、上下文怎么压缩、权限怎么控制、哪些流程必须自动执行——这些本质上都是架构层面的决策。模型会变,工具也会换,但这些东西不会很快过时。
这次 Claude Code 的泄露,让我们第一次比较完整地看到,这些模式在一个真实、大规模使用的 agent 里是怎么落地的。这样的窗口可能不会一直存在,但这些经验会留下来。
如果你正在做 agent 应用,值得认真研究这些模式。它们不是「锦上添花」的优化,而是决定系统能不能长期稳定运行的基础。
学AI大模型的正确顺序,千万不要搞错了
🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!
有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!
就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋

📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇
学习路线:
✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经
以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!
我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)