Prompt Engineering(提示词工程) 是与大语言模型高效交互的核心技能,通过精心设计输入提示来引导模型生成高质量输出。本篇覆盖 Zero-shot/Few-shot 学习、Chain of Thought(思维链)推理、System/User/Assistant 角色设计、Temperature/Top-p 参数调优 等核心技术。

概念速览

图片

一、Prompt Engineering 基础原理


1.1 什么是 Prompt?

Prompt(提示词) 是你输入给大语言模型的文本指令,用于启动对话或触发特定响应。它可以是简单的问题、复杂的任务描述,甚至包含示例和约束条件。

可以这样理解:Prompt 就像你和一个超级聪明但不了解你具体需求的助手沟通——你说得越清楚、越具体,助手就越能准确理解你的意图并给出满意的答案。

1.2 为什么 Prompt 设计如此重要?

大语言模型本质上是「概率预测机器」——根据输入预测最可能的下一个词。 相同的意图,不同的表达方式,会产生截然不同的输出质量。

图片

二、基础 Prompt 技巧


2.1 Zero-shot 学习

Zero-shot 是最简单的提示方式——直接提问,不提供任何示例,完全依赖模型的预训练知识。

适用场景 :

  • 简单直接的问答
  • 快速原型验证
  • 模型能力测试

示例 :

将以下文本翻译成英文:
「人工智能正在改变世界」

优点 :简洁高效,无需准备示例 缺点 :对复杂任务或特定格式要求难以精确控制

2.2 Few-shot 学习

Few-shot 通过提供少量高质量示例,帮助模型理解任务格式和期望输出。

类比来说,就像教一个新员工——与其长篇大论解释,不如直接展示几个优秀案例:「看,这就是我要的效果!」

示例 :

请对以下文本进行情感分类。

示例1:
文本:这部电影太棒了,演员演技精湛!
情感:正面

示例2:
文本:服务态度很差,等了两个小时。
情感:负面

示例3:
文本:今天天气还可以。
情感:中性

请分类:
文本:产品质量不错,但价格有点贵。
情感:

Few-shot 最佳实践 :

图片

2.3 清晰明确的指令

现代 LLM 对清晰、明确的指令反应极佳。核心原则是: 直接说出你想要什么,不要让模型猜测。

指令设计六要素 :

图片

对比示例 :

图片

2.4 提供上下文和背景

解释「为什么」某件事很重要,能帮助模型更好地理解目标并提供更有针对性的回应。

上下文四要素 :

  1. 1. 目的说明 :这个输出将用于什么

  2. 2. 受众定义 :目标读者是谁

  3. 3. 约束原因 :为什么有这些限制

  4. 4. 背景信息 :相关的前置知识

示例 :

背景:我正在准备一个面向非技术人员的 AI 科普讲座。
目的:让听众在 5 分钟内理解大语言模型的基本原理。
受众:年龄 40-60 岁,无技术背景的企业管理者。
约束:避免使用技术术语,使用生活中的类比。

请帮我写一段开场白,解释「大语言模型是如何工作的」。

2.5 使用分隔符

分隔符能明确区分指令和待处理内容,避免模型混淆。

常用分隔符 :

图片

示例 :

请总结以下文章的核心观点:

"""
人工智能(AI)正在以前所未有的速度发展。从自然语言处理到计算机视觉,
AI 技术正在渗透到各个行业。然而,随着技术的进步,我们也需要关注
AI 伦理和安全问题...
"""

要求:用三个要点概括,每个要点不超过 20 字。

三、高级 Prompt 技巧


3.1 Chain of Thought(思维链)推理

Chain of Thought(CoT) 是一种引导模型进行逐步推理的技术,通过展示中间思考过程来提高复杂任务的准确性。

类比来看,就像数学考试要求「写出解题过程」——不仅要答案,还要展示思路。这样做不仅让老师(用户)理解你的推理,也让你自己(模型)更不容易犯错。

三种 CoT 实现方式:

图片

基础 CoT 示例 :

问题:一个农场有 15 只鸡和 12 只兔子,请问一共有多少只脚?

请逐步思考,然后给出答案。

模型输出 :

让我逐步分析:

1. **鸡的数量:15 只**

每只鸡有 2 只脚
   鸡的脚数 = 15 × 2 = 30 只脚

2. **兔子的数量:12 只**

每只兔子有 4 只脚
   兔子的脚数 = 12 × 4 = 48 只脚

3. **总脚数 = 鸡的脚数 + 兔子的脚数**

总脚数 = 30 + 48 = 78 只脚

答案:一共有 78 只脚。

结构化 CoT 示例 :

请分析以下业务场景,判断是否适合使用微服务架构。

场景:一个日活 1000 用户的内部管理系统。

请在 <thinking> 标签中写出分析过程,在 <answer> 标签中给出结论。

3.2 Self-Consistency(自一致性)

Self-Consistency 是 CoT 的增强版——多次采样不同推理路径,选择最一致的答案。

图片

适用场景 :

  • 数学问题、逻辑推理
  • 需要高可靠性的决策
  • 答案可验证的任务

3.3 Prompt Chaining(提示链)

Prompt Chaining 将复杂任务分解为多个连续步骤,每个步骤的输出作为下一步的输入。

类比来说,就像流水线生产——每个工序专注做好一件事,最终产出高质量成品。

图片

示例:复杂文档分析

# Step 1: 信息提取
请从以下文档中提取所有提到的技术名词和关键数据:
[文档内容]

# Step 2: 分类整理(使用 Step 1 的输出)
请将以下技术名词按类别分组(编程语言/框架/工具/概念):
[Step 1 的输出]

# Step 3: 生成报告(使用 Step 2 的输出)
基于以下分类信息,生成一份技术栈分析报告:
[Step 2 的输出]

Prompt Chaining 权衡 :

图片

3.4 预填充响应(Prefilling)

预填充 是指在 API 调用中预先设置 Assistant 响应的开头,引导模型按特定格式或方向输出。

适用场景 :

  • 需要 JSON/XML 等结构化输出
  • 跳过客套话,直入主题
  • 维持特定语气或角色

API 示例 (以 OpenAI 格式为例):

messages = [
    {"role": "system", "content": "你是一个数据分析助手,只输出 JSON 格式。"},
    {"role": "user", "content": "分析以下销售数据的趋势"},
    {"role": "assistant", "content": "{"}  # 预填充,强制 JSON 开头
]

模型将从 { 继续生成,确保输出是有效的 JSON。

四、角色设计:System/User/Assistant


4.1 三角色模型

现代 LLM API 采用 三角色对话模型 :

图片

4.2 System Prompt 设计

System Prompt 是设定 AI 行为的全局指令,通常包含:

图片

System Prompt 示例 :

你是一位资深的技术文档撰写专家,具有 10 年软件开发和技术写作经验。

## 你的职责
- 帮助用户撰写清晰、准确的技术文档
- 解释复杂的技术概念,使非技术人员也能理解
- 提供文档结构和写作风格建议

## 输出规范
- 使用简体中文
- 代码示例使用 markdown 格式
- 重要概念用加粗标注
- 长文档提供目录结构

## 限制
- 只回答与技术文档相关的问题
- 不确定时明确说明,不要编造信息
- 涉及具体技术时,注明版本和适用范围

4.3 多轮对话上下文管理

在多轮对话中,合理管理上下文是控制成本和质量的关键。

上下文管理策略 :

图片

五、参数调优


5.1 Temperature(温度)

Temperature 控制模型输出的随机性,值越高输出越多样,值越低输出越确定。

数学原理 :

Temperature 作用于 Softmax 函数,调整概率分布的「锐度」:

  • T < 1 :概率分布更尖锐,高概率词更占优势
  • T = 1 :保持原始分布
  • T > 1 :概率分布更平滑,低概率词有更多机会

图片

Temperature 选择指南 :

图片

5.2 Top-p(核采样)

Top-p(Nucleus Sampling) 从累积概率达到 p 的最小词集合中采样,动态控制候选词范围。

如果说 Temperature 是调整「骰子的偏向程度」,那 Top-p 就是决定「骰子有多少面」——只在最有可能的选项中选择。

Top-p 工作原理 :

  1. 1. 将所有候选词按概率从高到低排序

  2. 2. 从最高概率词开始累加,直到总概率 ≥ p

  3. 3. 只在这个「核心集合」中采样

示例 :

候选词概率:{A: 0.4, B: 0.3, C: 0.15, D: 0.1, E: 0.05}

Top-p = 0.9 时:
累加:A(0.4) + B(0.7) + C(0.85) + D(0.95) → 选取 {A, B, C, D}
排除:E(累计到 E 时已超过 0.9)

Top-p = 0.7 时:
累加:A(0.4) + B(0.7) → 选取 {A, B}
排除:C, D, E

Top-p 与 Temperature 配合 :

图片

关键理解:OpenAI 建议通常只调整 Temperature 或 Top-p 其中之一,不要同时大幅调整两者。

5.3 其他重要参数

图片

六、结构化输出


6.1 JSON 格式输出

JSON 是 LLM 与程序交互的最常用格式。

可靠获取 JSON 的技巧 :

  1. 1. 明确要求 JSON 格式

  2. 2. 提供 JSON Schema 或示例

  3. 3. 使用预填充强制 JSON 开头

  4. 4. 设置低 Temperature

示例 :

请分析以下产品评论,并以 JSON 格式输出分析结果。

评论:"这款手机拍照效果不错,但电池续航有点差,屏幕很漂亮。"

输出格式:
{
  "overall_sentiment": "positive/negative/neutral",
  "aspects": [
    {"aspect": "方面名称", "sentiment": "评价", "evidence": "原文依据"}
  ],
  "summary": "一句话总结"
}

请只输出 JSON,不要包含其他文字。

6.2 XML 标签结构

XML 标签 适合需要嵌套结构或混合内容的场景。

请按以下格式回答问题:

<answer>
  <summary>简要回答</summary>
  <details>详细解释</details>
  <examples>
    <example>示例1</example>
    <example>示例2</example>
  </examples>
</answer>

6.3 表格格式

Markdown 表格 适合对比和列表类输出:

请用 Markdown 表格对比 Python 和 JavaScript:

| 维度 | Python | JavaScript |
|------|--------|------------|
| 类型 | ... | ... |
| 用途 | ... | ... |

七、常见问题与解决方案


7.1 问题诊断表

图片

7.2 避免常见错误

错误一:过度工程化

❌ 不好的做法:
"你是一个超级智能的 AI 助手,具有无限知识,请以最专业、最全面、
最准确的方式回答问题,确保涵盖所有可能的角度..."

✅ 好的做法:
"你是一位技术文档专家。请用 200 字解释什么是 API。"

错误二:只说不要什么,不说要什么

❌ 不好的做法:
"不要使用技术术语,不要写太长,不要偏题"

✅ 好的做法:
"使用通俗语言,控制在 100 字以内,只回答关于 X 的问题"

错误三:一次塞入过多要求

❌ 不好的做法:
"分析数据、生成报告、画图、写总结、给建议..."(一个 Prompt)

✅ 好的做法:
使用 Prompt Chaining,每步完成一个任务

八、实战案例


8.1 案例一:代码审查助手

## System Prompt
你是一位资深代码审查专家,专注于 Python 代码质量。

## 审查标准
1. **代码风格(PEP8)**

2. **性能问题**

3. **安全漏洞**

4. **可维护性**

## 输出格式
对每个问题,按以下格式输出:
- 问题类型:[风格/性能/安全/可维护性]
- 严重程度:[低/中/高]
- 位置:行号
- 问题描述:简要说明
- 修改建议:具体代码

---

## User Prompt
请审查以下代码:def get_user(id):
  query = "SELECT * FROM users WHERE id = " + str(id)
  return db.execute(query)

8.2 案例二:数据分析报告生成

## System Prompt
你是一位数据分析师,擅长将数据转化为业务洞察。

## 报告结构
1. **关键发现(3-5 条)**

2. **数据解读**

3. **行动建议**

---

## User Prompt
以下是本月销售数据:
- 总销售额:150 万
- 环比增长:12%
- 主要增长品类:电子产品(+25%)
- 下降品类:服装(-8%)
- 新客户占比:35%

请生成一份简洁的分析报告,面向管理层。

关键要点回顾

  • 清晰具体是基础 :明确说出你要什么,不要让模型猜测

  • Few-shot 提升格式控制 :用示例教会模型期望的输出格式

  • CoT 提升推理准确性 :复杂问题让模型「展示思考过程」

  • 参数调优匹配场景 :创意任务高 Temperature,精确任务低 Temperature

  • 迭代优化是常态 :Prompt Engineering 需要不断测试和改进

    这里给大家精心整理了一份全面的AI大模型学习资源包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享

👇👇扫码免费领取全部内容👇👇
在这里插入图片描述

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 2026行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

7. 资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇
在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐