目录

一、预训练模型

1、概述

2、分类

二、GPT

1、模型结构

1.1、输入嵌入层(Text & Position Embedding)

1.2、解码器

1.3、输出层

2、预训练

3、微调

三、BERT

1、模型结构

1.1、输入表示层

1.2、编码器

1.3、输出层

2、预训练

3、微调

四、T5

1、预训练

2、微调

一、预训练模型

1、概述

早期的自然语言处理需为每个任务单独训练模型,严重依赖人工标注数据,存在两大局限:语言知

识难以复用导致训练成本高;专业领域标注数据获取困难。为此研究者提出"预训练+微调"范式:

先在大规模未标注语料上学习通用语言规律,再通过少量标注数据适配具体任务。

2、分类

预训练语言模型多基于Transformer架构,因其相比传统RNN具有并行计算效率高、长距离建模能

力强、结构灵活通用、易于扩展迁移等优势。

根据使用方式,Transformer预训练模型分为三类:

  1. 解码器模型:仅用解码器,代表为GPT(OpenAI,2018.6)。

  2. 编码器模型:仅用编码器,代表为BERT(Google,2018.10)。

  3. 编码器-解码器模型:同时使用编码器和解码器,代表为T5(Google,2019.10)。

二、GPT

GPT(Generative Pre-trained Transformer)是首个系统提出“预训练+微调”范式的语言模型。其核

心是通过大规模无监督语料进行生成式(有mask机制)预训练——根据左侧上下文预测下一个

词,学习语言的通用规律;再通过微调适配具体下游任务。

1、模型结构

1.1、输入嵌入层(Text & Position Embedding)

1.2、解码器

1.3、输出层

GPT模型根据任务类型接入不同的任务头:

  1. 文本预测头(Text Prediction):输出词表大小的概率分布(经Softmax获得),用于下一个词生成,预训练阶段使用。

  2. 任务分类器头(Task Classifier):提取特定位置表示(如最后一个token)对整个文本分类,用于微调阶段适配下游任务(如情感分析、话题识别)。

2、预训练

GPT的预训练采用生成式语言建模(根据前文预测下一个词),在无监督文本上进行自监督学习,无需人工标注,大幅降低数据成本。

Transformer架构通过全局自注意力机制有效建模长距离依赖,同时并行计算特性提升了训练效率,使得大规模语料预训练成为可能。

3、微调

GPT的微调阶段是在预训练基础上,使用有监督数据对模型进行端到端优化,使其适应具体任务,

实现知识迁移:

  1. 添加任务输出层:在模型顶部引入线性层(Linear Head),将隐藏状态映射为任务标签。

  2. 统一输入格式:将各类下游任务重构为连续的文本序列,适配自回归模型的输入要求。

三、BERT

BERT(Bidirectional Encoder Representations from Transformers)核心在于采用Transformer编

码器结构,通过双向自注意力机制,在建模每个token时同时整合左右两侧的上下文信息,从而获

得更准确、丰富的语义表示。

1、模型结构

1.1、输入表示层

BERT的每个输入Token表示由以下三部分嵌入相加而成:

  • Token Embedding:词本身的语义表示。

  • Position Embedding:表示Token在序列中的位置,为可学习向量。

  • Segment Embedding:用于区分句子对任务中的两个句子(如NSP任务),分别用可学习的向量表示。

在BERT的输入序列中,还包含两个特殊符号:

  • [CLS](句首标志):其对应的输出向量常被用作整个输入序列的汇总表示(整句语义向量),特别适用于下游的文本分类任务。

  • [SEP](分隔符):用于标记句子的结束,通常出现在每个句子的末尾,在句子对任务(如问答、自然语言推断)中用于区分两个句子。

1.2、编码器

和原始Transformer相同

1.3、输出层

根据下游任务类型,BERT接入不同的任务输出头:

  • Token-Level任务(如命名实体识别):使用每个位置对应的输出表示进行分类。

  • Sequence-Level任务(如文本分类、句子对分类):使用特殊Token [CLS] 的输出表示(输入时位于序列开头),该向量专门用于汇总整个序列的语义信息。

2、预训练

BERT的预训练包含两个核心任务:

  • 掩码语言模型(MLM):为实现双向建模,随机遮盖15%的token进行预测。遮盖策略为:80%替换为[MASK],10%替换为随机词,10%保持不变。这使得模型能够融合左右两侧上下文进行预测。

  • 下一句预测(NSP):为理解句间关系,模型需判断第二句是否为第一句的真实后续句。其中50%为正例(相邻句子),50%为反例(随机采样)。

3、微调

在预训练完成后,BERT可通过少量微调适配多种下游任务(如文本分类、句子匹配、问答系统、

序列标注等)。微调时,模型主体结构保持不变,仅在顶部添加一个任务特定的输出层,并使用下

游任务数据对整个模型进行端到端训练。

四、T5

T5(Text-to-Text Transfer Transformer)首次在完整的Transformer编码器-解码器结构上实现预训

练语言模型。其核心思想是将所有自然语言处理任务统一表示为“文本到文本”的转换问题。即无论

任务是文本分类、问答还是翻译,模型的输入和输出均是自然语言形式的字符串。

1、预训练

T5模型的预训练目标称为Corrupted Span Prediction(破坏跨度预测),具体过程如下:

  1. 随机遮盖:在输入文本中随机选择若干段连续片段(span)进行破坏。

  2. 替换标记:将每个被遮盖的连续片段替换为一个特殊的哨兵Token(如 <extra_id_0>),而非使用 [MASK]

  3. 生成目标:模型以编码器-解码器的方式运行,令解码器自回归地生成这些被遮盖的连续片段内容(以哨兵Token分隔)作为输出序列。

2、微调

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐