【个人学习||ai提示词工程】01Prompt Engineering
提示词工程,本质上是“如何更高效地和大模型沟通”。模型并不是不聪明,很多时候只是我们表达得不够清楚。一个好的提示词,不是堆砌复杂术语,而是把任务目标、上下文、约束条件和输出格式说清楚,让模型更稳定地给出我们想要的结果。
原因:
每个人拿模型的用法都不一样,一些人拿来总结资料,一些人拿来写文章,一些人拿来写代码,一些人拿来审查。
因此LLM厂家不会定死这个模型一定是做什么的,模型本身更像一个“底层能力平台”。也正因为模型的用途是开放的,提示词工程才变得重要,它相当于连接“用户需求”和“模型能力”之间的桥梁,告诉模型,你最好这么做。
1. 学什么
提示词工程是一种结构化表达能力,把模糊需求工程化地翻译成模型可执行、可复用、可调试的指令系统。
它的核心目标是解决:
- 我到底要模型做什么
- 我给了它哪些必要上下文
- 我要求它以什么格式交付
- 我怎么判断它做得对不对
所以,提示词写得好,往往不是因为“高级”,而是因为“明确”。
2. 为什么重要
如果第一层认知错了,后面越学越偏。很多人把 Prompt 工程学成“收集神奇话术”,结果一到工程场景就失效。
它重要,因为它直接解决这些实际问题:
- 让模型少跑题
- 让结果更稳定
- 让输出能被代码解析
- 让排错有抓手
- 让你知道什么时候该用 Prompt,什么时候该换成 RAG / Tool / Fine-tuning
重要的的不是“会写漂亮提示词”,而是:你能不能把一个模糊需求变成稳定可交付的 LLM 任务。
3. 核心概念
| 概念 | 直觉解释 | 技术定义 |
|---|---|---|
| Prompt | 任务说明书 | 发给模型的输入内容 |
| Instruction | 老板的要求 | 明确告诉模型“做什么” |
| Context | 背景材料 | 让模型理解当前任务所需的信息 |
| Example | 参考答案 | 用示例教模型模仿目标模式 |
| Constraint | 红线规则 | 告诉模型不能做什么、必须满足什么 |
| Output Format | 交付格式 | 规定返回 JSON、表格、要点列表等 |
| Evaluation | 验收标准 | 判断 prompt 是否有效的方法 |
一个好提示词通常包含
-
角色
比如让模型扮演老师、产品经理、程序员、面试官,这能帮助它进入合适的回答风格。 -
任务
直接说明你要它做什么,例如“总结文章”“润色文案”“生成代码”“设计学习计划”。 -
上下文
给模型必要背景,比如目标读者是谁、使用场景是什么、已有内容是什么。 -
约束
限制回答长度、风格、语气、格式、不要做什么,这一步很重要。 -
输出格式
如果你想要表格、列表、JSON、分点总结,最好提前说明。
一个常见公式可以记成:
角色 + 任务 + 上下文 + 少样本提示 + 约束 + 输出格式
为什么很多提示词效果不好
最常见的问题不是模型能力不够,而是输入太模糊。比如:
“帮我写个方案。”
这个提示太宽泛,模型不知道:
- 方案给谁看
- 解决什么问题
- 用在什么场景
- 需要多详细
- 最终输出什么格式
改写后会更好:
你是一名产品运营专家。 请帮我写一份校园二手交易平台的拉新活动方案。 目标用户是大学生,预算控制在3000元以内。 方案需要包含:活动目标、玩法设计、宣传渠道、预算分配、风险点。 输出格式用分点结构,语言简洁,适合直接发给团队讨论。
这类提示词通常就会明显更稳定。
4. 原理解释
模型不是“懂了你的真实意图”,而是在当前上下文里,预测什么样的后续文本最像“合理答案”。
所以 prompt 的作用,就是缩小模型的可能输出空间。
工作机制可以拆成 5 步:
- 你给模型一段上下文
- 模型根据上下文估计下一串 token 的概率分布
- 清晰的指令会压缩“可能答案范围”
- 示例会把模型往你想要的模式上拉
- 输出格式约束会进一步减少自由发挥
设计思想是:
- 先消歧义,再求表达优雅
- 先保证可验收,再追求自然流畅
- 先结构化,再考虑“像人说话”
- 先解决“任务定义不清”,再怪模型不聪明
5.常见提示技巧
- 角色设定
适合风格迁移、专业回答。
你现在是一名有5年经验的雅思写作老师,请帮我批改下面这篇作文。
- 分步推理
适合复杂问题、方案设计、分析类任务。
请分三步完成: 第一步,找出问题; 第二步,分析原因; 第三步,提出可执行建议。
- Few-shot 示例
适合风格模仿、分类、格式固定输出。
示例1: 输入:开心 输出:积极情绪 示例2: 输入:焦虑 输出:消极情绪 现在请判断:失望
- 指定边界
适合减少跑题和幻觉。
如果信息不足,请明确告诉我“需要更多信息”,不要自行编造。
- 指定输出模板
适合办公、编程、数据处理。
请按以下格式输出: 标题: 核心观点: 执行建议: 风险提示:
6.我认为最值得注意的误区
- 误区 1:Prompt 工程就是“会写高级语气”
- 误区 2:角色设定越多越强
- 误区 3:不规定输出格式,后面再手工修
- 误区 4:没有评估集,只凭几次试出来的感觉
- 误区 5:模型缺知识时继续加提示词,而不是补检索
- 误区 6:把复杂任务一次性全塞进去,不做步骤拆解
- 误区 7:只关心回答“像不像”,不关心“能不能接系统”
一句纠偏:Prompt 工程首先是任务设计问题,其次才是语言表达问题。
7.我的学习总结
提示词工程训练的,其实不是“操控 AI 的技巧”,而是“把问题说清楚的能力”。
会提问的人,通常也更会思考、会表达、会拆解任务。随着模型能力越来越强,提示词可能会变得更自然,但“清晰表达、结构化思维、面向结果沟通”这些能力,反而会越来越重要。
如果把提示词工程浓缩成一句话,那就是:
把你脑子里模糊的需求,翻译成模型可以准确执行的指令。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)