如何使用AI

世界上最遥远的距离是有人用AI创造了新世界,而你还在问AI“你是谁?”

你是否有过这样的体验?

同样的AI工具,别人用它3分钟写爆文、10分钟做短视频、1小时写应用,而你得到的却是“这个问题很有趣,作为AI助手,我应当…”式的敷衍。

你刷着短视频,看到博主屏幕里笑得跟偷了蟠桃的猴儿似的告诉你:扣666,点赞关注领取999个价值百万的AI魔法咒语。

打开招聘软件,赫然挂着“AI提示词工程师年薪50万"的岗位,明确要求“需要具备写AI提示词的超能力”。

回想起这些体验,再看看你让AI生成的“五彩斑斓的黑”的PPT,你是否不禁疑惑:为啥AI到别人手里是创造财富的魔法棒,到你的手里宛如人工智障?

本文将为你揭秘那些让你跪着学AI的人,可能正在用着连他们自己都整不明白的“魔法口诀”。通过一篇文章,让你知道什么是AI提示词、提示词工程的同时,手握让AI变成魔法棒的万能钥匙。

本文因篇幅问题会拆分成两篇文章编写。其中前三个章节是对提示词、提示词工程、提示词工程技术理论的相关介绍,内容较为枯燥乏味,如果你不想阅读此部分内容,可以跳过,直接从下一篇文章(第四章节)开始阅读,不影响对提示词技能的掌握。《AI时代的魔法咒语:那些被吹爆了的价值百万的AI提示词(二)》

一、提示词:AI时代的魔法咒语

1. 什么是提示词

提示词(Prompt) 是一种通过输入文本指令或问题,让AI模型按照要求输出期望结果的方法和技术。它是你与AI沟通的桥梁,决定着AI输出的质量和方向。

想象一下,如果AI是站在你面前的一个精通所有领域知识、无所不知的“超级学霸”,但TA只会使用一种外星语言沟通,那么提示词就是这门沟通的语言。只不过它不是普通的话,而是驱动AI的精准指令

提示词的核心作用主要为:

  • 方向引导: 决定模型生成内容的主题、风格和格式。
  • 需求明确化: 将模糊的需求转化为AI可执行的指令。
  • 质量提升: 通过具体约束和上下文信息,提高生成内容的准确性和相关性。

举例:

  • “什么是AI提示词?
  • “请用李白的风格,写一首关于月亮的诗。”

这就是两条提供给AI的提示词,分别使用了提问和下指令的方式。AI接收到提示词后,会根据提示词的意图,进行相应的处理和输出。

2. 为什么需要提示词

  • 弥补模型局限性:

AI模型依赖大量数据训练,但无法主动理解用户意图。提示词通过明确指令缩小范围,避免无关或低质量输出。

示例:若用户仅输入“写一篇文章”,AI可能生成泛泛的内容;而输入“写一篇关于气候变化对农业影响的科普文章,需包含数据支持和解决方案”,则能引导AI生成结构化、专业的内容。

  • 降低使用门槛:

非技术用户无需了解模型内部机制,只需通过自然语言描述需求即可。

示例:用户通过“将这段英文合同翻译成中文,并标注关键法律条款”的提示词,可直接获得专业翻译结果。

  • 适应多场景需求:

不同任务(如创作、分析、设计)需要差异化提示词设计。例如:
文学创作:需描述场景、角色和情感基调。
数据分析:需明确数据范围、分析方法和输出格式。

  • 优化生成效率:

清晰的提示词可减少模型迭代次数,快速获得满意结果。例如,在广告文案创作中,通过“突出产品环保特性,语言简洁有力”的提示词,AI能直接生成符合营销目标的文案。

二、提示词工程

在这里插入图片描述

如同人类语言交流存在质量差异,尽管提示词是用户与AI交互的主要手段,但沟通方式的质量直接影响交互效果。精准的提示词设计能够更清晰地传递用户意图,从而获得更符合预期的AI响应;反之,表述模糊或结构松散的指令则可能导致模型理解偏差,产生偏离预期的输出。

例如:

  • “请创作一首关于月亮的诗歌”
  • “以李白风格创作七言绝句,通过月亮意象表达思乡之情”

这两个不同维度的提示词所生成的结果往往大相径庭。前者可能得到泛泛的咏月之作,后者则更可能呈现符合特定诗人风格与情感诉求的精品。

正因如此,“提示词工程(Prompt Engineering)” 作为新兴领域应运而生。它的核心是弥合用户需求与模型理解之间的差距,实现人机交互效能的质的提升。

1. 提示词工程的定义

提示词工程(Prompt Engineering):通过构造具有明确语义意图、结构化语言特征的自然语言提示,系统性引导模型生成特定目标输出的技术方法论。

通俗地讲,提示词工程是一门 研究如何与AI有效沟通、获得最佳输出的方法论体系。这种方法论更像是一种思维模式,就像程序员用代码命令计算机,我们用提示词"编程"AI。区别在于一个好的提示词工程师,不需要懂深度学习算法,但必须懂得AI的"思维习惯"。

提示词工程作为一门新兴的学科,其被广泛应用于开发和优化提示词,帮助用户有效地将语言模型用于各种应用场景和研究领域。掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性。研究人员可利用提示工程来提高大语言模型处理复杂任务场景的能力,如问答和算术推理能力。开发人员可通过提示工程设计和研发出强大的技术,实现与大语言模型或其他生态工具的高效对接,是AI应用从可用好用的关键跃升的保障。

如今,我们经常讨论的诸如“AI提示词”、“如何写好提示词”等问题,通常指的都是如何研究和利用提示词工程这一门学科。本文后文阐述的内容也都是基于此展开。

2. 提示词工程的设计要素

在提示词工程里,一个好的提示词通常应该包含以下几个要素:

  • 指令:想要模型执行的特定任务或指令
  • 上下文:包含外部信息或额外的上下文信息,引导语言模型更好的响应
  • 输入数据:用户输入的内容或者问题,如问题、文本、图像、音频、视频等
  • 输出指示:指定输出的类型或者格式

为了更好的说明提示词的要素,我们以下面提示词为例:

请结合2025年的最新科学研究数据,撰写一篇面向中学生的关于气候变化对极地地区的影响的科普短文,阐述气候变化对极地冰川和野生动物有什么具体影响。文章按照总分总结构撰写,语言通俗易懂。
  • 指令:“撰写一篇关于气候变化对极地地区的影响的科普短文”,即给模型指定了一个特定的确定的任务
  • 上下文:“2025年的最新科学研究数据”、“面向中学生的”为模型提供一些上下文信息(受众、数据来源)
  • 输入数据:“阐述气候变化对极地冰川和野生动物有什么具体影响”,提出了具体的问题
  • 输出指示:“总分总结构撰写,语言通俗易懂”,指定了输出的文章格式和行文风格

注意,提示词所需的格式取决于您想要语言模型完成的任务类型,并非所有以上要素都是必须的。

2. 提示词工程的优势

提示词工程结合了语言学、心理学、计算机科学和人工智能等多个领域的知识。一个精心设计的提示词通常会考虑到生成文本的目标、受众特征,基于任务需求和预期效果来设计。其核心优势体现在以下维度:

  • 提高效率:用户可以更准确地描述任务需求和期望的输出,从而减少了不必要的迭代和优化时间。这意味着用户在与模型互动时,不需要反复的修改和调整问题来获得满意的回答。精确的提示词能够快速引导系统聚焦于问题的核心,提高信息获取的速度。此外,优化后的提示词还可以简化复杂的任务,将其分解为多个简单的步骤,使得任务完成过程更加流畅和高效。最终,这种高效的互动方式不仅节省了用户时间,也提高了整体工作流程的效率。
  • 提高准确性:明确和详细的提示词能够帮助模型更好地理解用户的意图,避免模糊和歧义。例如,提供足够的上下文信息和具体细节,使系统能够更准确的解析问题背景,从而给出更符合预期的回答。此外,合理的提示词设计还可以减少无关信息的干扰,使回答更加集中和有针对性。
  • 创新潜能激发:通过设置创造性约束(如"用科幻电影比喻解释量子计算原理"),激活模型非常规联想能力,实现多样化的、更具创新的输出。

3. 提示词工程的挑战

尽管提示词工程在多个领域上展现了其应用价值,但它也面临着一些挑战。

  • 技术迭代带来的挑战:随着AI技术的快速发展,新的语言模型出现、框架变动、自动化工具发展都会要求提示词工程不断地适应新的变化。
  • 可扩展性和标准化问题:提示词工程在不同的应用中可扩展性和标准化是一个挑战。缺乏标准化的接口、统一的框架和自动化工具,就要求提示工程在针对不同的任务和模型时,需要设计不同的策略,这无疑增加了提示词工程的复杂性。
  • 伦理和隐私问题:设计提示词时,确保内容的合规性、合法性,如何保护隐私、确保数据安全都是提示词工程里要面临的重要问题。

4. 提示词工程师的职业前景

提示词工程师(Prompt Engineer) 是随着生成式AI技术爆发而诞生的新兴职业,其核心职责是通过设计、优化自然语言指令(提示词),引导AI模型(如大语言模型、图像生成模型)高效完成特定任务。简单来说,他们是AI的“翻译官”和“教练”,通过精准的提示词设计,将人类需求转化为AI能理解的指令,从而提升模型输出的准确性和创造性。

关键职责包括:

  • 需求分析: 理解用户或项目的具体需求,拆解任务目标。
  • 提示词设计: 根据模型特性(如GPT-4、Claude、Gemini等)和用户场景,设计结构化、高引导性的提示词。
  • 测试与优化: 通过A/B测试、数据分析等手段,评估提示词效果并持续迭代。
  • 跨领域协作: 与产品经理、数据科学家、UI/UX设计师等合作,推动AI应用的落地。

根据彭博社和《福布斯》的报道,提示词工程师这一岗位不仅不需要编程经验,而且年薪可达六位数。例如,美国专业新闻门户网站Benzinga报告称,部分提示词工程师的年薪高达37.5万美元。同样,在国内的各大招聘平台上,相关职位也月薪不菲,显示出了市场对这一新兴职业的高度认可。一些地方政府和公共机构也开始认识到了AI的潜力,并着手招聘提示词工程师来推动智慧城市、公共安全等领域的发展。随着AI技术的发展,提示词工程师将成为企业AI化转型的必备角色。

总而言之,提示词工程师是AI时代最具潜力的职业之一,其价值体现在连接人类需求与AI能力的桥梁作用。随着生成式AI在各行业的深度渗透,该职业的需求将持续增长,薪资水平和发展空间均处于高位。对于具备语言天赋、逻辑思维和持续学习能力的从业者而言,这是一个充满机遇的黄金赛道。

三、提示词工程技术

提示词工程的发展也不是一蹴而就的。提示词工程技术已经从最初的“零样本提示”发展到了如今包含链式推理、工具调用等复杂形态,其正在重塑着人与AI的交互方式。本节将通过例子简单的介绍18种提示词工程技术。

1.基础交互技术

1.1 零样本提示(Zero-Shot)

经过大量数据训练并调整指令的LLM能够执行零样本任务,“零样本”指的直接提问无需向模型提供任何示例 。

提示词示例:“用3句话讲个关于勇敢的小狗的故事”
AI输出:“小狗豆豆发现迷路的小猫,虽然害怕仍带它找妈妈,最终成为森林英雄。”

1.2 少样本提示(Few-Shot)

虽然大型语言模型展示了惊人的零样本能力,但在使用零样本设置时,它们在更复杂的任务上仍然表现不佳。少样本提示可以作为一种技术,以启用上下文学习,我们在提示中提供演示以引导模型实现更好的性能。演示作为后续示例的条件,我们希望模型生成响应。

提示词示例

示例1:苹果→红色水果  
示例2:大象→灰色动物  
请转换:企鹅→?  

AI输出:“企鹅→黑白羽毛的南极鸟类”

然而,标准的少样本提示对许多任务都有效,但仍然不是一种完美的技术,特别是在处理更复杂的推理任务时。

提示词示例:这组数字中的奇数加起来是一个偶数:15、32、5、13、82、7、1。
AI输出:“是的,这组数字中的奇数加起来是107,是一个偶数。”

这是个错误的答案,这不仅突显了这些系统的局限性,而且需要更高级的提示工程。我们尝试添加一些示例,看看少样本提示是否可以改善结果。

这组数字中的奇数加起来是一个偶数:489151221。
A:答案是False。

这组数字中的奇数加起来是一个偶数:171019481224。
A:答案是True。

这组数字中的奇数加起来是一个偶数:161114481324。
A:答案是True。

这组数字中的奇数加起来是一个偶数:17910121342。
A:答案是False。

这组数字中的奇数加起来是一个偶数:15325138271。
A:

AI输出:答案是True。

答案依然是错误的,可见少样本提示不足以获得这种类型的推理问题的可靠响应。

总的来说,提供示例对解决某些任务很有用。当零样本提示和少样本提示不足时,这可能意味着模型学到的东西不足以在任务上表现良好。这时候我们就不得不考虑微调你的模型或尝试更高级的提示技术。

2. 推理增强技术

2.1 链式思考(CoT)

如上面少样本提示的例子,如果我们在少样本提示的基础上,增加中间的推理步骤,将问题分解成步骤并向模型演示,就可以获得更好的结果。

这组数中的奇数加起来是偶数:489151221。
A:将所有奇数相加(9151)得到25。答案为False。

这组数中的奇数加起来是偶数:171019481224。
A:将所有奇数相加(1719)得到36。答案为True。

这组数中的奇数加起来是偶数:161114481324。
A:将所有奇数相加(1113)得到24。答案为True。

这组数中的奇数加起来是偶数:17910121342。
A:将所有奇数相加(17913)得到39。答案为False。

这组数中的奇数加起来是偶数:15325138271。
A:

输出结果为:将所有奇数相加(15、5、13、7、1)得到41。答案为False。

当然,如果你把样本减少到只有一个,对模型进行测试时,发现也能得到正确的答案。

链式思考使用与分步解决复杂问题的场景,它在一定程度上让模型具有更好的推理的能力。再举个例子:

提示词示例:“计算(8+2)×5-3,分步说明”
AI输出

8+2=10  
10×5=50  
50-3=47  
答案:47
2.2 自我一致性(Self-Consistency)

自我一致性(Self-Consistency)是一种通过多路径验证确保准确性的提示词技术。其旨在“替换链式思维提示中使用的天真贪婪解码方法”。其想法是通过少样本 CoT 采样多个不同的推理路径,并使用生成结果选择最一致或最可靠的结果。这有助于提高 CoT 提示在涉及算术和常识推理的任务中的性能。

提示词示例:当我6岁时,我的妹妹是我的一半年龄。现在我70岁了,我的妹妹多大?
AI输出:35

这显然是错误的答案。如果通过自我一致性来改进这个问题,我们需要导入少量的样本范例:

Q:林中有15棵树。林业工人今天将在林中种树。完成后,将有21棵树。林业工人今天种了多少棵树?
A:我们从15棵树开始。后来我们有21棵树。差异必须是他们种树的数量。因此,他们必须种了21-15 = 6棵树。答案是6。


Q:停车场有3辆汽车,又来了2辆汽车,停车场有多少辆汽车?
A:停车场已经有3辆汽车。又来了2辆。现在有3 + 2 = 5辆汽车。答案是5。

Q:Leah有32块巧克力,她的姐姐有42块。如果他们吃了35块,他们总共还剩多少块?
A:Leah有32块巧克力,Leah的姐姐有42块。这意味着最初有32 + 42 = 74块巧克力。已经吃了35块。因此,他们总共还剩74-35 = 39块巧克力。答案是39。

Q:Jason有20个棒棒糖。他给Denny一些棒棒糖。现在Jason只有12个棒棒糖。Jason给Denny多少棒棒糖?
A:Jason有20个棒棒糖。因为他现在只有12个,所以他必须把剩下的给Denny。他给Denny的棒棒糖数量必须是20-12 = 8个棒棒糖。答案是8。

Q:Shawn有五个玩具。圣诞节,他从他的父母那里得到了两个玩具。他现在有多少个玩具?
A:他有5个玩具。他从妈妈那里得到了2个,所以在那之后他有5 + 2 = 7个玩具。然后他从爸爸那里得到了2个,所以总共他有7 + 2 = 9个玩具。答案是9。

Q:服务器房间里有9台计算机。从周一到周四,每天都会安装5台计算机。现在服务器房间里有多少台计算机?
A:从周一到周四有4天。每天都添加了5台计算机。这意味着总共添加了4 * 5 =
20台计算机。一开始有9台计算机,所以现在有9 + 20 = 29台计算机。答案是29。

Q:Michael有58个高尔夫球。星期二,他丢失了23个高尔夫球。星期三,他又丢失了2个。星期三结束时他还剩多少个高尔夫球?
A:Michael最初有58个球。星期二他丢失了23个,所以在那之后他有58-23 = 35个球。星期三他又丢失了2个,所以现在他有35-2 = 33个球。答案是33。

Q:Olivia有23美元。她用每个3美元的价格买了五个百吉饼。她还剩多少钱?
A:她用每个3美元的价格买了5个百吉饼。这意味着她花了15美元。她还剩8美元。

Q:当我6岁时,我的妹妹是我的一半年龄。现在我70岁了,我的妹妹多大?
A:

AI输出:

(1)当我6岁时,我的妹妹是我的一半年龄,也就是3岁。现在我70岁了,所以她是70-3 = 67岁。答案是67。

(2)当叙述者6岁时,他的妹妹是他年龄的一半,也就是3岁。现在叙述者70岁了,他的妹妹应该是70-3 = 67岁。答案是67。

(3)当我6岁时,我的妹妹是我的一半年龄,也就是3岁。现在我70岁了,所以她是70/2 = 35岁。答案是35。
 
(4)...

最后出现的大多数答案是67,所以最终的答案被确定为67。

3. 知识融合技术

LLM 继续得到改进,其中一种流行的技术是能够融合知识或信息,以帮助模型做出更准确的预测。使用类似的思路,模型是否也可以在做出预测之前用于生成知识呢?通过先生成知识或提供外部知识作为提示词的一部分,可能对于常识推理等任务有比较大的帮助。

3.1 生成知识提示(Generated Knowledge)

这是一种先让模型生成知识,基于这些知识重新整合应用,再给出结果的技术。

提示词示例:先生成知识再应用
提示词:请先列出关于火星的3个事实,再回答:人类能在火星居住吗?
AI输出: 火星的3个事实(1)稀薄且富含二氧化碳的大气层(2)拥有极端寒冷的气候(3)缺乏液态水。因此,火星目前还不能给人类居住。

3.2 检索增强生成(RAG)

与生成知识提示不同,检索增强生成是先从外部知识库中检索信息,再基于这些信息整合,形成最终的结果。

RAG 会接受输入并检索出一组相关/支撑的文档,并给出文档的来源(例如维基百科)。这些文档作为上下文和输入的原始提示词组合,送给文本生成器得到最终的输出。这样 RAG 更加适应事实会随时间变化的情况。这非常有用,因为 LLM 的参数化知识是静态的。RAG 让语言模型不用重新训练就能够获取最新的信息,基于检索生成产生可靠的输出。

提示词示例:“检索最新新能源汽车政策,生成购车建议”
AI输出:“根据2025年补贴政策,推荐续航500km以上车型可获3万元补贴”

4. 自动化工具

4.1 自动推理并使用工具(ART)

使用 LLM 完成任务时,交替运用 CoT 提示和工具已经被证明是一种既强大又稳健的方法。这类方法通常需要针对特定任务手写示范,还需要精心编写交替使用生成模型和工具的脚本。

ART(Automatic Reasoning and Tool-use) 的工作原理如下:

  • 接到一个新任务的时候,从任务库中选择多步推理和使用工具的示范。
  • 在测试中,调用外部工具时,先暂停生成,将工具输出整合后继续接着生成。
    ART 引导模型总结示范,将新任务进行拆分并在恰当的地方使用工具。ART 采用的是零样本形式。ART 还可以手动扩展,只要简单地更新任务和工具库就可以修正推理步骤中的错误或是添加新的工具。

提示词示例:“计算2025年9月3日加100天后的日期”
AI输出:“先使用日期工具计算,结果为2025年12月12日”

4.2 自动提示工程师(APE)

自动提示工程师(Automatic Prompt Engineer) 是一个用于自动指令生成和选择的框架,用AI自动优化提示词,生成更有效的提示词指令。

原始提示:“写产品介绍”
优化后提示:“以科技感文案突出手机拍照功能,目标用户摄影爱好者”

5. 前沿交互模式

5.1 思维树(ToT)

对于需要探索或预判战略的复杂任务来说,传统或简单的提示技巧是不够的。思维树(Tree of Thoughts,ToT) 框架基于思维链提示进行了总结,引导语言模型探索把思维作为中间步骤来解决通用问题。

通俗的理解就是让AI探索多种推理路径(像树枝分叉),最后选择最佳答案,常用于路径决策的应用场景。

举例:对于“如何解决全球变暖?” AI可能列出多种方案(减排、新能源等),并比较优劣。

5.2 多模态思维链

传统的思维链提示方法侧重于语言模态。相比之下,多模态思维链提示将文本和视觉融入到一个两阶段框架中。第一步涉及基于多模态信息的理性生成。接下来是第二阶段的答案推断,它利用生成的理性信息。

通俗的理解就是:结合图片、语音、文本等多类型输入进行推理。

提示词例子:先上传一张海滩照片,然后问:“描述可进行的活动”
AI输出:“图中显示椰树和浪花,建议冲浪、堆沙堡、日落时拍摄剪影照片”

6. 特殊场景应用

6.1 Active-Prompt主动询问

Active-Prompt是一种让AI主动询问用户,以澄清模糊问题。通常适用于对一组问题可能生成多个可能的答案,基于这多个答案计算不确定度度量,然后选择最不确定的问题由用户进行确认。

提示词示例:“我想要去旅行”
AI输出:确认偏好:“您喜欢自然风光还是城市探索?计划带小孩同行吗?”

6.2 方向性刺激提示

方向性刺激提示(Directional Stimulus Prompting):提供关键词或短语,引导AI生成特定风格或内容。一般适用于激发创造力的场景。
提示词:以“月光下的城堡”为开头写一首诗”
AI输出

月光下的城堡垂下丝绸的梯子
等候一个从未抵达的叩门者
石墙吸收所有疑问的重量
幽蓝的苔藓在砖缝间书写编年史

风穿过空走廊时学会古语
盔甲内部响起未完成的誓词
吊桥始终保持着放下的姿态
尽管护城河已干涸半个世纪

塔尖与星群进行着缄默的对话
彩窗剥落的釉彩渗入地层
地窖里葡萄酒继续发酵
暗红汁液淹没时间的刻度

直到晨光咬碎西廊最后一根柱础
月光下的城堡仍保持着
垂下丝绸梯子的姿态

7. 程序辅助技术

7.1 程序辅助语言模型(PAL)

程序辅助语言模型(Program-Aided Language Models) 是一种让AI生成编程代码来解决问题的提示词技术,通过执行代码逻辑来解决问题。

提示词:“使用python排序5,2,8”
AI输出

nums = [5,2,8]
nums.sort()
print(nums)  # 输出:[2,5,8]
7.2 ReAct框架

ReAct框架(Reason + Act)是一种LLM 以交错的方式生成推理轨迹任务特定操作的框架。

生成推理轨迹使模型能够诱导、跟踪和更新操作计划,甚至处理异常情况。操作步骤允许与外部源(如知识库或环境)进行交互并且收集信息。该框架使用于交互式的任务处理场景。

提示词:“如何做蛋糕?”
AI输出

第一步:搜索食谱;第二步:列出材料;第三步:按步骤操作……

8. 反思与优化

8.1 自我反思(Reflexion)

自我反思是一个通过语言反馈来强化基于语言的智能体的框架。一种“口头”强化的新范例,它将策略参数化为智能体的记忆编码与 LLM 的参数选择配对。

在高层次上,自我反思将来自环境的反馈(自由形式的语言或者标量)转换为语言反馈,也被称作self-reflection,为下一轮中 LLM 智能体提供上下文。这有助于智能体快速有效地从之前的错误中学习,进而提升许多高级任务的性能。

通俗的理解就是让AI自我反思错误,并修正答案。

自我反思通常适合以下情况:

  • 智能体需要从尝试和错误中学习:自我反思旨在通过反思过去的错误并将这些知识纳入未来的决策来帮助智能体提高表现。这非常适合智能体需要通过反复试验来学习的任务,例如决策、推理和编程。

  • 传统的强化学习方法失效:传统的强化学习(RL)方法通常需要大量的训练数据和昂贵的模型微调。自我反思提供了一种轻量级替代方案,不需要微调底层语言模型,从而使其在数据和计算资源方面更加高效。

  • 需要细致入微的反馈:自我反思利用语言反馈,这比传统强化学习中使用的标量奖励更加细致和具体。这让智能体能够更好地了解自己的错误,并在后续的试验中做出更有针对性的改进。

  • 可解释性和直接记忆很重要:与传统的强化学习方法相比,自我反思提供了一种更可解释、更直接的情景记忆形式。智能体的自我反思存储在其记忆组件中,让分析和理解其学习过程变得更加简单。

8.2 基于图的提示

基于图的提示(Graph-Based Prompting) 是使用图结构(如思维导图)表示问题关系,辅助AI理解复杂逻辑。通常使用于结构化知识应用的场景。

提示词:给定了一张人物关系图,然后问"A和C是什么关系?"
AI输出:A是C的舅舅。

9. 元提示技术

17. Meta-Prompting

元提示技术(Meta-Prompting) 即让AI扮演“提示词工程师”,自己设计最佳提问方式。
提示词:你是一个提示词专家,请生成一个能最好回答“什么是量子计算”的提示词
优化后提示:你是一位顶尖的物理学和计算机科学教育家,擅长用通俗易懂的比喻和例子解释复杂概念。请为一位充满好奇心的聪明高中生撰写一份关于‘量子计算’的全面介绍。请遵循以下结构…(此处省略了详细内容)

9.1 链式提示(Prompt Chaining)

为了提高大语言模型的性能使其更可靠,一个重要的提示工程技术是将任务分解为许多子任务。 确定子任务后,将子任务的提示词提供给语言模型,得到的结果作为新的提示词的一部分。 这就是所谓的链式提示(prompt chaining),一个任务被分解为多个子任务,根据子任务创建一系列提示操作。

举例:先问:“写一个关于侦探的故事大纲”,再根据大纲问:“扩展第三部分”。

总结

提示词技术正在快速进化,从最初的简单问答,发展到今天能推理、检索、自我修正的复杂交互。掌握这些技术,你不仅能更高效地使用AI,还能解锁其深层潜力。
无论你是普通用户还是开发者,都可以从“少样本提示”或“链式思考”开始尝试,逐步体验更高级的方法。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐