Agent 如何压缩上下文:来看看Cursor、Claude
文章探讨了Agent任务执行中上下文失控问题及其解决方案。核心是"按需使用"原则,通过信息价值评估将内容分为短上下文和外部记忆两层。提出多种动态加载卸载技术,包括文件化存储、摘要保留历史入口、Skills模块化、MCP工具按需加载及上下文隔离等方法。这些技术能有效降低token消耗达46.9%,提高Agent长期稳定性,实现"动态维护上下文,确保核心上下文只包含必要调度信息"。
Agent 任务执行的越久,上下文越容易失控:这是由于它的运行模式决定了的:
选动作 → 调工具 → 得结果 → 追加到上下文 → 下一轮决策

在复杂任务里,输出常常很短(函数调用、结构化参数),输入却持续增长。输入/输出 token 比例可能接近 100:1。这类场景,拼“更大窗口”很快遇到边界:成本、延迟、效果衰减都会同时出现。
所以,一个正真能长期稳定干活的 Agent,需要遵循一个原则:
按需使用:只把当前决策需要的信息放进上下文。
看起来简单,落地难在两点:
- 识别“此刻最值钱的信息”;
- 把信息以可控方式加载/卸载。
下面,我会介绍做好这两点的要诀已经可落地的方法。
一、按需使用的关键:信息价值评估
按需使用首先是“价值判断”:
- 哪些是目标与约束(必须常驻)
- 哪些是当前步骤的依据(阶段性加载)
- 哪些是过程噪声(应外置)
- 哪些可能未来会用(保留可恢复入口)
这里有一个实用标准:保留可复用的结论与索引,把大体量原始材料移出上下文。最常见的是通过文件的方式保存下来
二、动态加载与卸载:把“上下文”变成“可调度资源”
成熟做法通常会把信息分为两层:

1. 短上下文:用于决策的高密度片段
包括目标、当前状态、下一步候选动作、必要的少量证据。
2. 外部记忆:用于存放大体量材料
文件、路径、URL、日志、工具输出、历史记录都在这里。
当模型需要细节时,再读取、grep、tail、局部截取。
这类设计的优势在于可恢复:信息暂时不在上下文里,但随时能再取回来,避免不可逆压缩带来的风险。
三、上下文压缩调度方案
我将 Cursor、Claude Code、Manus 等厂商在上下文压缩上的实践做了一个梳理,大概有以下几点
1. 把长内容输出写成文件进行外置,按需读取
Cursor 的实践非常直接:shell 输出、MCP 调用结果、终端会话都同步到文件系统。
收益是上下文保持轻量,且不丢信息。

1.1 摘要阶段保留 “可回查” 的历史入口
摘要能释放上下文窗口,但属于有损压缩。
Cursor 的改进点是把对话历史作为文件提供给 Agent:摘要后如果缺细节,模型可以搜索历史文件把关键事实找回来。
这让摘要从一次性覆盖变成可回滚查询。
1.2 Skills 文件化:把复杂流程从对话里抽离
Skill 是一个非常好的抽象,它表示一个完整的技能模块,用文件描述怎么做某类任务并提供了必要的工具。
系统提示只放技能名称与简介;执行时再按需检索加载相关 Skill 内容。
这类沉淀带来的压缩效果很明显:上下文少了长篇流程复述,更多变成能力调用 + 结构化结果。
1.3 MCP 工具的按需加载:用文件索引替代全量注入
MCP 服务器经常包含大量工具与长描述,静态注入会显著膨胀上下文。
Cursor 的策略是把工具描述同步到文件夹:上下文仅保留工具名等轻量信息,需要时再查文件加载细节。
在 Cursor 报告这能将总 token 消耗降低 46.9%(多服务器场景更明显)。
1.4 长任务稳定性:用“plan.md”维持目标权重

常见做法是生成 todo.md|plan.md ,本质是把全局计划持续更新到上下文末尾,让模型在长链路中保持目标对齐。
工程上等价于把目标状态做成可迭代的外部对象,并在关键节点回灌。
这让我们在上下文爆炸导致生成效果降低时,也可以选择带着这个 plan.md 新开一个会话,新会话重构上下文的工程也算是一种压缩
2.上下文隔离:subagent、multi agent

目前主流的 AI Coding 平台都支持 subagent 的模式,这种模式的好处在于不同的 Agent 有着天然隔离的上下文,中间产物只会留在执行任务的当前 Agent。
编排者 Agent也只需要获取到每个 subagent的任务的结果(大概率是一个文件索引),这保证了每个 Agent 的上下文都是可控的。
总结
上下文压缩的难点不在"更短",在"更准"。
能做到按需使用的 Agent,通常具备两种能力:
- 对信息价值的判断
- 对外部记忆的调度。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)