收藏 | 从提示词工程到上下文工程:掌握大模型关键技术的进阶指南
上下文工程(Context Engineering)是近年来在大语言模型(LLM)领域备受关注的新兴技术方向。虽然概念并非全新,但随着AI能力发展和应用需求提升,其重要性日益凸显。上下文工程本质上是对提示词工程(Prompt Engineering)的扩展和深化,它关注如何有效地管理和提供模型运行所需的相关信息。通过RAG、Memory、Tool Calling等手段,上下文工程旨在优化模型在多轮交互中的表现,尤其是在Agent等复杂应用场景中。随着底层模型能力的提升,上下文工程将成为AI工程化时代的关键基础设施,对提升模型潜力和构建智能体、复杂任务编排及具身智能等应用领域具有深远影响。
为什么最近大家都在聊Context Engineering?
这个词似乎突然爆火,但这个概念并不是新的概念,而是从大语言模型诞生并进入应用层之后一直存在。只不过随着AI能力的发展和实际应用需求的提升,它终于被重新放上了聚光灯下,Andrej Karpathy[1]6月25日的推文助推下,更多人关注了

本文将带你从提示词工程一路走到上下文工程,梳理清楚它们的关系,并了解为什么上下文工程这么重要
TL;DR
对于不想看全文的,可以直接看摘要:
本质来说上下文工程(Context Engineering)和提示词工程(Prompt Engineering)是一个东西,前者是一个更加fancy的叫法,也从狭义的提示词扩大到上下文的维度,涵盖更加广的上下文工程实践
用Agent的例子来说明,就是Agent每次执行的时候都需要有合适的上下文(太多太少不够准确的都不行),这些上下文可以是预设的(比如预先写好的系统提示词),也可以是运行时获取的(通过工具调用外部获取),配合一些诸如RAG、Memory、读写、Compact/Compression等手段可以更好的管理上下文,因此上下文工程就是如何将合适的信息填充到有限的上下文里的艺术和科学
Prompt vs Context
在与大语言模型(LLM)打交道的过程中,我们其实一直在围绕两类输入工程打转:提示词工程(Prompt Engineering)和上下文工程(Context Engineering)
前者更像是在告诉模型它是谁,而后者是喂给模型它需要知道的相关信息
其实非常好理解,在基于LLM的应用运行期间,需要一些预设背景信息,且拥有合适的上下文信息,尤其是现在以Agent为主的应用,多轮次交互中每一轮次都需要不同的、合适的且准确的上下文信息,才可以最大化Agent的效果
提示词工程Prompt Engineering
最早底层模型能力还没有被大幅提升的时候,大家都在利用提示词挖掘底层模型的能力,我还记得当时Sam Altman还说过写提示词这个东西有些人很有天份,一下就知道怎么写
早期大家都是管理一堆的提示词,用于不同的使用场景,这也衍生出了一些诸如:GPTs,Character.AI、星野等这一些“Cosplay”的AI应用,这类应用本质上就是允许用户去编写提示词来驱动模型以某种形式去回复用户的问题
通过提示词控制也是相对符合直觉的一个行为,提示词工程里还有一些更加高阶一点的手段,比如:
•少样本提示(Few-shot Prompt):给出几个类似的示例,引导模型模仿
•零样本提示(Zero-shot Prompt):不给任何示例,让模型自主决定输出
•思维链提示(Chain-of-Thought Prompt):引导模型一步步说出来的自我思考过程,重点是提示格式而不是答案示例
少样本提示(Few-shot Prompt):
文本:我太喜欢这部电影了!
情感:正面
文本:这道菜太难吃了。
情感:负面
文本:还行吧,我觉得。
情感:
零样本提示(Zero-shot Prompt:
文本:还行吧,我觉得。
情感:
思维链提示(Chain-of-Thought Prompt):
文本:还行吧,我觉得。
情感分析:我们来分析一下这句话。"还行吧" 表示中等、不好不坏,"我觉得" 表示语气不确定或者没有强烈的情绪。整体来看,这句话情绪不强烈,偏向中性。
情感:中性
因此本质上提示词工程就是在告诉模型开始处理任务之前的一些预设,可以很有效的帮助模型做一个锚定,在此之后就让模型在这个范围内和方向上自我发挥
在这个阶段模型没有任何外部知识,也没有记忆等,全部依赖于提示词本身
上下文工程 Context Engineering
上下文窗口一直是模型能力的重要衡量指标之一,原因就是上下文对于模型应用效果非常关键
前面提到最早通过较为直觉的方式来写提示词,随着底层模型的发展和模型应用的普及,对于效果的追求也越来越高,从最早的泛娱乐式消费,到生产力提升的需求,上下文是相对于模型微调来说更加低成本且可操作性更高的方式来提升整体的效果
在上下文工程领域延伸出很多手段:
•RAG(Retrieval-Augmented Generation,检索增强生成):通过语义化响亮搜索,从知识库中检索与用户问题最相关的文档片段,并拼接到上下文,提升回答准确性
•Memory(记忆):引入长短期记忆,帮助模型回顾过往记录
•Tool Calling/MCP(工具调用):通过结构化提示词告诉模型如何调用预定工具(如数据库查询、API调用等)来获取外部信息,是一种与世界连接的输入增强方式

我们是可以参考Context Engineering for Agents里所做的分类(主要针对Agent语境下的分类):
•写上下文(Write Context):上下文窗口限制,需要把过往的上下文存到外部,必要时召回
•选择上下文(Select Context):从已经保存的数据中选择合适的部分注入到上下文窗口中,帮助LLMs更好完成任务
•压缩上下文(Compressing Context):上下文超出的情况下,对上下文进行合理的压缩保留必要的最小内容
•隔离上下文(Isolating Context):拆分并分配不同的上下文给不同的子智能体或子任务,提高效率和清晰度
目前大家都在上下文工程领域持续深耕。简单说,就是底层模型的性能提升是取决于几家头部模型厂商的,在有限的情况之下,应用层都是在拼上下文处理能力以及和用户交互的UI/UX
因此我们其实可以留意到目前AI应用都是围绕这两点展开的,如何帮助模型更好的获取上下文去完成用户的需求+如何用更好的交互方式让用户与模型交互。反观UI/UX已经是一个体系化的学科之后,对于一个AI应用能否足够好用,就取决于上下文工程的能力。这样想我们就能知道为什么上下文工程如此重要且受关注面这么广
我们可以看到早期的RAG就是一种相对固定的外部信息获取,一般我们在RAG里做召回会用topk,也就是最匹配的k份材料(chunk)给到模型,本质上就是因为上下文是有限的,如何获取最合适的材料,就是RAG里需要不断去摸索的方向。
记忆模块也是一部分,现在也有很多人在这块投入研究,我觉得是一个非常值得投入研究的领域,记忆可分为长时记忆和短期记忆,通过ChatGPT这个APP我们也可以看得到一些实践,现在它可以召回以前的对话(本质上也是向量搜索这类方式),这样就是通过对话来实现记忆recall的一个过程,同时它也会在日常对话中去记录一些关键点到记忆条目里,这样就能建立一个长期记忆(最早记忆是会满的,我觉得没理由让用户去手动删除和管理记忆,现在就没有这个问题了)。
前段时间疯狂流行的MCP,也就是和以前的Function Tool,或者Tool Calling一样,就是让模型能调用一些预设的工具,去获取对应的信息来做决策,也是上下文工程的一种,这个方向是对于现有服务和基础设施,甚至是物理世界交互的一个标准接口,所以意义深远
总体而言,上下文工程涵盖的就是很简单的东西,给到模型的上下文内容,但是期间涉及的手段有很多值得研究和发展的领域和方向。这个也为未来AGI方向提供了一个必要的基础
界限并没有那么清晰
通常系统提示词不太会变,这个是有别于上下文的,否则严格意义上来说,提示词也是上下文的一部分,所有模型能看到的内容都统称为上下文。因此实际上现在讨论Context Engineering并不是一个全新的概念呢,而是自大语言模型诞生之初就一直存在的,只不过现在规范化、专业化和学科化
现在越来越多人认识到,随着底层模型能力的提升,prompt的需求程度在降低,现在演变出一个更加fancy的叫法,就是上下文工程Context Engineering,从更加广义的角度来定义,上下文工程自此进入人们的视野,也使得越来越多人关注
因此可以认为这两个工程都是在同样的目的:目标很明确,就是通过合理的处理组装上下文,让模型效果最大化
举例来说,我们来看看Claude Code的系统提示词(System Prompt):



从Claude Code的System Prompt中可以看出,我们可以看到它融合了角色设定、少样本提示、工具调用等手段,同时通过 Tool 使用能力动态扩展上下文,比如支持查看文件、编辑代码、提交 Git、拉取图片等。这种设计结合了提示词工程与上下文工程,是一种典型的 Prompt + Context 混合型应用,本质上构建出了一个具备自主决策能力的 Agent
新学科的出现
这边有一段在Context Engineering for Agents[2]这篇文章中的一段话,我觉得描述得很好:
As Andrej Karpathy puts it, LLMs are like a new kind of operating system[3]. The LLM is like the CPU and its context window[4] is like the RAM, serving as the model’s working memory. Just like RAM, the LLM context window has limited capacity[5] to handle various sources of context.
And just as an operating system curates what fits into a CPU’s RAM, “context engineering” plays a similar role. Karpathy summarizes this well:
[Context engineering is the] ”…delicate art and science of filling the context window with just the right information for the next step.”
把LLMs类比成新的操作系统(OS),而上下文窗口(Context Window)则是LLMs的内存,内存是有限的,因此需要用一些辅助手段在磁盘、网络间去置换合适的数据到内存里,上下文窗口也是同理,在运行时需要合适的数据加载到上下文窗口内,才可以让LLMs发挥最大效果
随着LLM的流行和应用,未来的会涌现更多不同的学科, 我觉得上下文工程就是其中一个方向,是一个为LLM设计和管理输入上下文的一门新兴技术学科,可以预见,在未来的一段时间内,随着AI工程化的复杂程度提升,LLM与外界交互变多的情况下,上下文工程是一个极其重要的研究方向,可以进一步决定LLM能发挥出多大的潜力和能力
从应用到具身智能,都离不开模型对于外界信息的获取和感知,外界信息是无穷多的,如何在有限的上下文内把最有价值的信息提供给模型,决定了这个学科研究的方向
在未来,Context Engineer也许会成为AI团队中的关键角色之一,就像数据工程师之于机器学习团队那样重要
如果说Prompt是语言的编程,那么Context Engineering就是系统级调度与资源管理,决定了模型能否发挥巨大的潜力
上下文工程,是AI工程化时代的关键基建
随着大语言模型底层能力的不断突破,我们对如何更好地用好模型的关注也正从提示词的微调,逐渐转向对上下文的理解、管理与动态构建
Prompt Engineering是起点,Context Engineering则是让它走得更远的路。我们可以预设提示词来激发模型潜力,但能否持续发挥作用,最终还要看上下文工程能否构建出精准、动态、可扩展的输入
在未来,无论是智能体(Agent)的构建,复杂任务的编排,还是具身智能(Embodied AI)的落地,Context Engineering都会是连接模型与现实世界的桥梁。它不仅是工程问题,更是产品问题、交互问题、认知问题
也许未来我们会看到一个新角色的诞生:上下文设计师(Context Architect),就像数据工程师之于机器学习,它将成为AI团队中不可或缺的一环。
这场革命,已经从写好一句提示词进入到了设计一个完整的上下文生态,也就是大行其道的Agent在做的事情和方向
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】


为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)