在这里插入图片描述

一、认识大语言模型

1. 什么是大语言模型?

大语言模型(Large Language Model,LLM)是指基于大规模神经网络(参数规模通常达数十亿至万亿级别,例如GPT-3包含1750亿参数),通过自监督或半监督方式,对海量文本进行训练的语言模型。

名词解释:

  1. 神经网络:一个极其高效的“团队工作流程”或“条件反射链”。

例如教一个小朋友识别猫:

  • 不会只给一条规则(比如“有胡子就是猫”),因为兔子也有胡子。
  • 我们会让他看很多猫的图片,他大脑里的视觉神经会协同工作:
    • 有的神经元负责识别“尖耳朵”,
    • 有的负责识别“胡须”,
    • 有的负责识别“毛茸茸的尾巴”。
      这些神经元一层层地传递和组合信息,最后大脑综合判断:“这是猫!”

神经网络就是模仿人脑的这种工作方式。

  • 它由大量虚拟的“神经元”(也就是参数)和连接组成。
  • 每个神经元都像一个小处理单元,负责处理一点点信息。无数个神经元分成很多层,前一层的输出作为后一层的输入。
  • 通过海量数据的训练,这个网络会自己调整每个“神经元”的重要性(即参数的值),最终形成一个非常复杂的“判断流水线”。比如,一个识别猫的神经网络,某些参数可能专门负责识别猫的眼睛,另一些参数专门负责识别猫的轮廓。
    简单说:神经网络就是一个通过数据训练出来的、由大量参数组成的复杂决策系统。
  1. 自监督学习:“完形填空”超级大师。

例如我们想学会一门外语,但没有老师给出题和批改。怎么办?

  • 我们可以拿一本该语言的小说,自己玩“完形填空”:随机盖住一个词,然后根据上下文猜测这个词是什么。
  • 一开始猜得乱七八糟。
  • 但不断地重复这个过程,看了成千上万本书后,对这个语言的语法、词汇搭配、上下文逻辑了如指掌。现在不仅能轻松猜对被盖住的词,甚至能自己写出流畅的文章。

自监督学习就是这个过程。

  • 模型面对海量的、没有标签的原始文本(比如互联网上的所有文章、网页)。
  • 它自己给自己创造任务:把一句话中间的某个词遮住,然后尝试根据前后的词来预测这个被遮住的词。
    通过亿万次这样的练习,模型就深刻地学会了语言的规律。它不需要人类手动去给每句话标注“这是主语”、“这是谓语”。
    简单说:自监督就是让模型从数据本身找规律,自己给自己当老师。
  1. 半监督学习:“师父领进门,修行在个人”。

例如你想学做菜:

  • 师傅先教你几道招牌菜(比如麻婆豆腐、宫保鸡丁)——这相当于给了你一些“有标注的数据”(菜谱和成品)。
  • 然后,师傅让你去尝遍天下各种美食,自己研究其中的门道——这相当于接触海量的“无标注数据”(各种未知的食材和味道)。
  • 你结合师傅教的基本功和自己尝遍天下美食的经验,最终不仅能完美复刻招牌菜,还能创新出新的菜式。这就是“半监督”。

先用少量带标签的数据让模型“入门”,掌握一些基本规则,然后再让它去海量的无标签数据中自我学习和提升。这对于大语言模型来说也是一种常用的训练方式。
简单说:半监督就是“少量指导+大量自学”的结合模式。

大语言模型是一个:

  • 用“超级团队工作流程”(大规模神经网络)搭建的,拥有数百亿甚至上万亿个“脑细胞”(参数)的“超级自动补全系统”(语言模型)。
  • 它学习的方式,主要是通过自己玩“海量完形填空”(自监督学习),或者“少量名师指导+海量自学”(半监督学习)……
  • 从互联网上所有的文本数据中学会了语言的规律。

因此,它具有以下几个核心特点:

  • 规模巨大:它的“脑细胞”(参数)特别多(通常达到数十亿甚至万亿级别),所以思考问题更复杂、更全面,就像一支百万大军和一个小分队的区别。
  • 通用性强:它不是为单一任务训练的。因为它通过“完形填空”学会的是整个语言世界的底层规律(语法、逻辑、知识关联),而不是只背会了“猫的图片”。所以它能举一反三,把底层能力灵活应用到聊天、翻译、写代码等各种任务上。这种“涌现”能力,就像孩子通过大量阅读后,突然能写出意想不到的优美句子一样。
  • 训练方式不同:主要使用自监督学习,从海量无标注的原始文本中学习。它不依赖人工一张张地给图片标“这是猫”,而是直接从原始文本中自学,效率极高,规模可以做得非常大。
  • 交互方式革命:我们不用点按钮、写代码,直接像对人说话一样给它指令(Prompt)它就能听懂并执行,比如你直接说“写一首关于春天的诗”,它就能给你写出来。

2. 主流的大语言模型

  • GPT-5(OpenAI):支持400k背景信息长度,128k最大输出标记,在多轮复杂推理、创意写作中表现突出
  • DeepSeek R1(深度求索):开源,专注于逻辑推理与数学求解,支持128K长上下文和多语言(20+语言),在科技领域表现突出
  • Qwen2.5-72B-Instruct(阿里巴巴):通义千问开源模型家族重要成员,擅长代码生成结构化数据(如JSON)处理角色扮演对话等,尤其适合企业级复杂任务,支持包括中文英文法语等29种语言
  • Gemini 2.5 Pro(Google):多模态融合标杆,支持图像/代码/文本混合输入,适合跨模态任务(如图文生成、技术文档解析)

其他参考:

3. LLM的能力包括哪些?

大模型,对不少人来说已变得耳熟能详,从大型科技公司到初创企业,都纷纷投身于这场技术变革。AI大模型不仅仅是技术圈的热门话题,它也正日新月异的速度融入我们的日常生活,改变着我们获取信息、处理工作、甚至进行创作的方式。
我们将大模型的能力归纳为四点,这不仅仅是技术指标,更是它改变世界的核心利器。

3.1 语言大师:理解与创造的革命

想象一下,你是否发生过以下类似问题:
对学生:你是否为论文的开头绞尽脑汁?
对职场人:一封礼貌又坚决的投诉邮件怎么写?
LLM可以干什么?对于:
论文的开头:告诉大模型你的主题和观点,它能为你生成几个不同风格的引言段落。
投诉邮件:把情况告诉它,它即刻生成,你稍作修改就能发送。
我们发现,它真正“读懂”了人类语言的千变万化,并能进行高质量创作。这不是简单的关键词匹配,而是理解了上下文、情感甚至潜台词。

3.2 知识巨人:拥有“全互联网”的记忆

我们可以问它:“用物理学原理解释为什么猫咪总能四脚着地?”。它不仅能回答,还能类比。
我们可以让它:“对比一下古希腊哲学和春秋战国百家争鸣的异同”。它能为我们提供清晰的思路。
可以看出,大模型是一个被压缩的、可对话的“互联网知识库”。它通过学习海量数据,将知识内在关联,形成了一个立体的知识网络,而不仅仅是存储。

3.3 逻辑与代码巫师:从思维到实现的跨越

一个复杂的功能,对程序员来说,只需用中文描述:“写一个Python函数,能自动爬取某个网页的最新标题并保存到Excel里。”代码瞬间生成。
我们可以把一道复杂的数学题丢给它,如“微分方程y’‘-3y’+2y=3x-2e^x的特解y*的形式为?”,它不仅能给出答案,还能一步步展示解题过程,成为你的私人家教。
可以看出,大模型不仅能处理语言,还能处理严格的逻辑和编程语法。这证明了它的能力超越了“文科”,进入了需要精确和推理的“理科”领域。

3.4 多模态先知:开启“全感知”AI的大门

想象一下,上传一张照片,再加入一段描述,AI可实现快速的对话式创意工作流程。
可以看到,它打破“文本”的界限,连接视觉、听觉的世界,让AI更接近人类的感知方式。这是目前最前沿、最令人兴奋的能力,它让AI真正成为“全能型”助手。

4. 提示词编写技巧

编写合理且有效的提示词,是我们与AI进行有效对话的第一步,好的提示词能显著提升模型输出的质量和相关性。宗旨就是:将你的问题限定范围,让AI知道你要的答案具体要包含什么,提示词效果会大幅提升。

核心在于换位思考:想象AI对你提供的信息一无所知,你需要清晰、具体、无歧义地告诉它你要什么、在什么背景下、以什么方式呈现。善用示例、角色扮演、具体约束和迭代优化。

提示技巧不止一种,掌握多种技巧,并根据不同任务灵活组合使用,才是成为提示词高手的秘诀。

4.1 CO-STAR结构化框架

在目标设定和问题解决的场景下,清晰性和结构性是至关重要的。而有一种方法论,在这些方面表现都非常出色,那就是CO-STAR框架。这个提示词编写框架,由新加坡政府技术局(GovTech)的数据科学与AI团队开发,重点在于确保提供给LLM的提示词是全面且结构良好的,从而生成更相关和准确的回答。

CO-STAR可以拆解为六个维度。

模块 说明 示例
Context 任务背景与上下文 “你是电商客服,需解答用户关于iPhone 17的咨询,知识库包含最新价格和库存”
Objective 核心目标 “准确回答价格、发货时间,推荐适配配件”
Steps 执行步骤 “1.识别用户问题类型;2.检索知识库;3.用亲切语气整理回复”
Tone 语言风格 “口语化,避免专业术语,使用‘亲~’‘呢’等语气词”
Audience 目标用户 “20-35岁年轻消费者,对价格敏感,关注性价比”
Response 输出格式 “价格:XXX元\n库存:XXX件\n推荐配件:XXX(链接)”

4.2 少样本提示/多示例提示

这种方式通过给AI提供一两个输入-输出的例子,让它“照葫芦画瓢”。
核心思想:你不是在给它下指令,而是在“教”它你想要的格式、风格和逻辑。
适用场景:格式固定、风格独特、逻辑复杂的任务,如风格仿写、数据提取、复杂格式生成。

4.3 思维链提示

提示工程的关键目标是让AI更好地理解复杂语义。这种能力的高低,可以直接通过模型处理复杂逻辑题的表现来检验。
可以这样理解:当好的提示词能帮助模型解决原本解决不了的难题时,就说明它确实提升了模型的推理水平。并且,提示词设计得越出色,这种提升效果就越显著。通过设置不同难度的推理测试,可以很清晰地验证这一点。
思维链提示最常用的两种方式:

  • Few-shot-CoT:少样本思维链
  • Zero-shot-CoT:零样本思维链
    核心思想:要求AI“展示其工作过程”,而不是直接给出最终答案。这模仿了人类解决问题时的思考方式。
    适用场景:数学题、逻辑推理、复杂决策、需要解释过程的任务。

4.4 自动推理与零样本链式思考

零样本思维链(Zero-shot-CoT)这是少样本思维链(Few-shot-CoT)的简化版。只需在提示词末尾加上一句魔法短语,即可激发AI的推理能力。
核心思想:通过指令“请一步步进行推理并得出结论”,强制AI在给出答案前先进行内部推理。
适用场景:任何需要一点逻辑思考的问题,即使你不太清楚具体步骤。

4.5 自我批判与迭代

要求AI在生成答案后,从特定角度对自己的答案进行审查和优化。
核心思想:将“生成”和“评审”两个步骤分离,利用AI的批判性思维来提升内容质量。
适用场景:代码审查、文案优化、论证强化、安全检查。
在实际应用中,这些技巧常常是组合使用的。例如,我们可以:

  1. 使用CO-STAR框架设定基本结构和角色。
  2. 在框架的“Steps”或“Response”部分,融入思维链指令。
  3. 对于格式复杂的输出,在最后附上少样本示例。
  4. 最后,要求AI进行自我审查。

5. 为什么LLM如此重要?

如果说前几年AI还是“炫技”的概念,那么大模型就是将AI变成一种基础资源,像电一样融入各行各业,驱动创新。

  • 生产力革命的“加速器”

自动化所有基于语言和知识的工作:撰写、总结、翻译、编码、答疑……它将人类从重复性的脑力劳动中解放出来,让我们能更专注于创造、决策和战略思考。

它的核心价值不是替代人类,而是增强人类(Human Augmentation)。

  • 人机交互的“新范式”

从“人适应机器”到“机器适应人”:我们不再需要学习复杂的软件菜单或编程语言,用最自然的“说话”方式,就能指挥机器完成任务。技术的使用门槛被极大地降低了。

  • 产业智能化的“核心引擎”

赋能千行百业:
教育:提供一对一、无限耐心的AI家教。
医疗:辅助医生看影像资料、查阅最新文献病历。
法律:快速分析海量卷宗,提炼关键信息。
文创:提供无限的故事灵感、设计草图、配乐方案。
它正在成为和互联网、移动支付一样重要的数字化基础设施。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐