【深度强化学习精通】第15讲 | RLHF:大模型对齐的革命 - 从人类反馈中学习
在这里插入代码片## 环境声明
| 项目 | 要求 |
|---|---|
| Python版本 | 3.10+ |
| 核心依赖 | PyTorch 2.0+、Transformers 4.30+、TRL、DeepSpeed |
| 开发工具 | VS Code / PyCharm / Jupyter Notebook |
| 硬件建议 | NVIDIA GPU(推荐A100/H100用于大模型训练) |
| 操作系统 | Windows / macOS / Linux |
安装依赖
pip install torch transformers trl deepspeed
1. 引言:从预训练到对齐的范式转变
大语言模型(Large Language Model,LLM)的发展在2022-2023年迎来了爆发式增长。以GPT-3、ChatGPT、Claude为代表的大模型展现出了惊人的语言理解和生成能力。然而,这些模型在预训练阶段仅仅学习了语言的统计规律和世界知识,并不能直接满足人类的实际需求和价值观。
想象一下,一个经过海量互联网数据训练的模型,可能会生成有害内容、偏见言论、事实错误或不符合用户意图的回答。这是因为预训练的目标很简单:预测下一个词。模型并不知道什么是有用的回答、什么是安全的表达、什么是符合人类偏好的交互方式。
RLHF(Reinforcement Learning from Human Feedback,从人类反馈中学习的强化学习) 正是为了解决这一问题而诞生的。RLHF通过引入人类反馈,将预训练模型与人类的偏好和价值观对齐,使其成为真正有用的AI助手。
RLHF的核心思想可以追溯到2017年的DeepMind论文,但真正让它名声大噪的是OpenAI的InstructGPT和ChatGPT。2022年,InstructGPT论文展示了通过RLHF,一个1.3B参数的模型可以在遵循指令方面超越175B参数的GPT-3。这一结果震惊了整个AI界,也开启了LLM对齐技术的新纪元。
进入2024-2025年,RLHF技术持续演进。DPO(Direct Preference Optimization,直接偏好优化)提出了一种无需强化学习的对齐方法,大大简化了训练流程。RLVR(Reinforcement Learning from Verifiable Rewards,基于可验证奖励的强化学习)则在数学推理、代码生成等任务上取得了突破性进展,成为2025年最受关注的技术方向之一。
本讲将系统性地介绍RLHF的理论基础、核心算法和实战应用。我们将深入剖析从人类反馈中学习的原理,详细讲解Reward Model的训练方法,深入理解PPO在LLM对齐中的应用,介绍DPO和RLVR等前沿技术,并通过完整的代码实现帮助读者掌握LLM微调的实战技能。
2. RLHF的核心原理与三阶段流程
2.1 为什么需要RLHF
预训练的大语言模型虽然具备强大的语言生成能力,但存在以下几个根本性问题:
问题一:目标不对齐。预训练的目标是最小化语言模型的交叉熵损失,即预测下一个词的概率。这与我们期望模型做的事情(遵循指令、提供有用信息、保持安全)并不一致。模型可能会生成流畅但无用甚至有害的内容。
问题二:价值观缺失。预训练数据来自互联网,包含各种观点、偏见和错误信息。模型会复制这些数据中的问题,而没有能力判断什么是对的、什么是错的。
问题三:指令遵循能力差。预训练模型没有接受过指令遵循的训练,用户提问时模型可能不理解意图,或者给出不相关的回答。
问题四:安全性和可控性。没有对齐的模型可能生成仇恨言论、危险建议或侵犯隐私的内容,这在实际应用中是绝对不可接受的。
RLHF通过引入人类反馈,让模型学习人类的偏好,从而解决上述问题。它的核心思想是:人类比任何自动化的评估指标都更擅长判断模型输出的质量。
2.2 RLHF的三阶段流程
标准的RLHF流程包含三个阶段:监督微调(SFT)、奖励模型训练(Reward Modeling)、以及RL优化(Reinforcement Learning Optimization)。
RLHF三阶段流程图
阶段一:监督微调(Supervised Fine-Tuning,SFT)
在这个阶段,我们使用高质量的人类标注数据对预训练模型进行微调。这些数据通常包含(提示,理想回答)的配对,由人类标注员精心编写。
SFT的目的是让模型学会遵循指令的基本格式和风格。经过SFT后,模型已经具备了一定的指令遵循能力,可以生成看起来合理的回答。但SFT存在局限性:它只能复制数据集中的行为,无法超越标注者的水平;它使用最大似然训练,可能生成模糊或平均化的回答。
阶段二:奖励模型训练(Reward Model Training)
这是RLHF的核心创新。我们训练一个奖励模型(Reward Model,RM),让它学会预测人类对不同回答的偏好。
具体来说,对于同一个提示,我们让SFT模型生成多个不同的回答,然后让人类标注员对这些回答进行排序或打分。基于这些偏好数据,我们训练一个模型来预测:给定一个提示和一个回答,人类会给予多高的评分。
奖励模型的输出是一个标量值,表示回答的质量。这个值越高,表示回答越符合人类偏好。奖励模型充当了人类偏好的代理,使得我们可以在后续的强化学习中使用自动化的奖励信号。
阶段三:RL优化(Reinforcement Learning Optimization)
在这个阶段,我们使用强化学习算法(通常是PPO)来优化SFT模型,使其生成的回答能够获得更高的奖励分数。
具体来说,我们将语言模型视为策略,将提示作为状态,将生成的token序列作为动作,将奖励模型的输出作为奖励信号。通过PPO算法,我们不断更新模型参数,使其生成更高奖励的回答。
同时,为了防止模型偏离原始SFT模型太远(这可能导致语言质量下降或奖励黑客行为),我们在奖励中加入KL散度惩罚项,鼓励优化后的模型与原始模型保持相似。
2.3 RLHF的数学形式化
让我们用数学语言来描述RLHF的三个阶段。
SFT阶段:给定数据集 D_SFT = {(x_i, y_i)},其中 x 是提示,y 是理想回答。SFT的目标是最小化负对数似然:
L_SFT = -E_{(x,y)~D_SFT}[log pi_SFT(y|x)]
奖励模型训练阶段:给定偏好数据集 D_pref = {(x, y_w, y_l)},其中 y_w 是人类偏好的回答(win),y_l 是人类不喜欢的回答(loss)。奖励模型 r_phi 通过Bradley-Terry模型进行训练:
L_RM = -E_{(x,y_w,y_l)~D_pref}[log sigma(r_phi(x, y_w) - r_phi(x, y_l))]
其中 sigma 是sigmoid函数。这个损失函数鼓励奖励模型给偏好的回答打高分,给不喜欢的回答打低分。
RL优化阶段:使用PPO算法最大化期望奖励,同时保持与SFT模型的相似性:
L_RL = E_{x~D, y~pi_theta}[r_phi(x, y)] - beta * D_KL(pi_theta || pi_SFT)
其中 beta 控制KL惩罚的强度。PPO通过裁剪目标函数来稳定训练:
L_PPO = E[min(r_t * A_t, clip(r_t, 1-eps, 1+eps) * A_t)]
其中 r_t 是重要性采样比率,A_t 是优势函数估计。
3. 奖励模型训练详解
3.1 奖励模型的作用与设计
奖励模型是RLHF的核心组件,它充当了人类偏好的代理。一个好的奖励模型应该具备以下特性:
准确性:能够准确预测人类对不同回答的偏好排序。
泛化性:对于训练时未见过的提示和回答类型,也能给出合理的评分。
可扩展性:能够处理长文本输入,适应各种长度的对话。
稳定性:评分应该平滑连续,避免剧烈的波动。
在实践中,奖励模型通常基于预训练的语言模型(如GPT、LLaMA等)进行微调。我们在模型的最后一层添加一个回归头,输出一个标量值作为奖励分数。
3.2 偏好数据的收集
奖励模型的训练需要高质量的偏好数据。数据收集过程通常如下:
步骤一:提示选择。从各种来源收集多样化的提示,包括开放式问题、指令遵循任务、对话场景等。提示应该覆盖模型可能遇到的各种使用场景。
步骤二:回答生成。使用SFT模型对每个提示生成多个不同的回答。可以通过调整采样温度、使用不同的随机种子等方式获得多样化的回答。
步骤三:人类标注。让人类标注员对同一提示下的多个回答进行比较,选择更好的那个。通常采用成对比较(pairwise comparison)的方式,即每次比较两个回答。
步骤四:质量检验。对标注结果进行一致性检验,剔除低质量的标注。可以计算标注员之间的一致性分数(如Kappa系数),或者让多个标注员标注同一批数据。
3.3 Bradley-Terry模型
Bradley-Terry模型是奖励模型训练的理论基础。它假设每个回答都有一个潜在的"强度"值,偏好概率由强度值的差异决定。
具体来说,对于两个回答 y1 和 y2,y1 被偏好的概率为:
P(y1 > y2) = sigma(r(x, y1) - r(x, y2)) = 1 / (1 + exp(-(r(x, y1) - r(x, y2))))
其中 r(x, y) 是奖励模型输出的分数。这个公式表明,奖励分数差异越大,偏好概率越接近1或0;差异越小,偏好概率越接近0.5。
基于这个模型,我们可以构建损失函数。对于一个人类标注的偏好对 (y_w, y_l),损失为:
L = -log P(y_w > y_l) = -log sigma(r(x, y_w) - r(x, y_l))
这个损失函数鼓励奖励模型扩大偏好回答和非偏好回答之间的分数差距。
3.4 奖励模型的训练技巧
技巧一:数据平衡。确保训练数据中不同提示类型、不同回答长度的样本分布均衡。避免某些类型的样本过多导致模型偏向。
技巧二:正则化。使用dropout、权重衰减等技术防止过拟合。奖励模型容易过拟合到训练数据的特定模式,导致泛化能力下降。
技巧三:温度缩放。在计算偏好概率时使用温度参数:
P(y1 > y2) = sigma((r(x, y1) - r(x, y2)) / temperature)
较低的温度使模型更加自信,较高的温度使模型更加保守。
技巧四:多轮对话处理。对于多轮对话,可以将整个对话历史作为输入,只对最后一轮回答进行评分。或者分别对每一轮进行评分,然后聚合。
4. PPO在LLM对齐中的应用
4.1 为什么PPO适合LLM对齐
PPO(Proximal Policy Optimization)是目前LLM对齐中最常用的强化学习算法。它之所以适合这一任务,有以下几个原因:
稳定性:PPO通过裁剪目标函数限制了策略更新的幅度,避免了策略的剧烈变化。这对于语言模型至关重要,因为过大的更新可能导致语言质量下降。
样本效率:PPO可以对同一批数据进行多次更新(multiple epochs),提高了样本效率。在LLM训练中,生成回答的成本很高,样本效率尤为重要。
KL约束:PPO天然支持KL散度约束,可以方便地实现与参考模型的相似性约束,防止模型偏离太远。
实现简单:相比TRPO等算法,PPO的实现更加简单,易于调试和扩展。
4.2 RLHF-PPO的目标函数
在LLM对齐中,PPO的目标函数为:
L_RLHF = E_{x~D, y~pi_theta}[r_phi(x, y) - beta * log(pi_theta(y|x) / pi_SFT(y|x))]
其中:
- r_phi(x, y) 是奖励模型给出的分数
- beta 是KL惩罚系数
- pi_theta 是当前策略模型
- pi_SFT 是SFT模型(作为参考)
KL惩罚项可以写成:
D_KL = E[log pi_theta(y|x) - log pi_SFT(y|x)]
这相当于对每个token的对数概率差求和。KL惩罚确保了优化后的模型不会偏离SFT模型太远,保持了语言的自然性和多样性。
4.3 价值函数的设计
在标准PPO中,我们需要训练一个价值函数(Critic)来估计状态价值 V(s)。但在LLM对齐中,状态是已经生成的token序列,动作是下一个token的选择。
由于语言生成的序列很长,传统的价值函数设计面临挑战。实践中通常采用以下策略:
策略一:token-level价值函数。为每个token位置训练一个价值估计。这种方法粒度细,但计算开销大。
策略二:sequence-level价值函数。只为整个序列估计一个价值。这种方法简单,但可能丢失细粒度的信号。
策略三:混合方法。结合token-level和sequence-level的价值估计,在细粒度和计算效率之间取得平衡。
在RLHF中,由于奖励只在序列结束时给出(由奖励模型评分),我们通常使用GAE(Generalized Advantage Estimation)来计算优势函数:
A_t = delta_t + (gamma * lambda) * delta_{t+1} + (gamma * lambda)^2 * delta_{t+2} + ...
其中 delta_t = r_t + gamma * V(s_{t+1}) - V(s_t)。由于奖励只在最后一步非零,这个公式可以简化。
4.4 训练稳定性技巧
技巧一:奖励归一化。对奖励模型的输出进行归一化,使其均值为0,标准差为1。这可以防止奖励值过大导致的梯度爆炸。
reward = (reward - reward_mean) / (reward_std + 1e-8)
技巧二:KL自适应调整。根据当前的KL散度动态调整惩罚系数:
if kl_div < target_kl / 1.5:
beta *= 0.5 # 减小惩罚
elif kl_div > target_kl * 1.5:
beta *= 2.0 # 增大惩罚
技巧三:梯度累积。由于LLM的显存消耗大,可以使用梯度累积来模拟大batch size:
for i, batch in enumerate(dataloader):
loss = compute_loss(batch)
loss = loss / accumulation_steps
loss.backward()
if (i + 1) % accumulation_steps == 0:
optimizer.step()
optimizer.zero_grad()
技巧四:混合预训练数据。在RL训练过程中,混合一部分SFT数据进行监督学习,防止模型遗忘预训练知识:
loss = ppo_loss + alpha * sft_loss
5. DPO:直接偏好优化
5.1 DPO的动机与核心思想
RLHF虽然有效,但流程复杂,涉及多个模型的训练(SFT模型、奖励模型、策略模型)和采样(从策略模型生成回答)。这带来了以下问题:
复杂性:需要维护多个模型,训练流程长,调试困难。
不稳定性:PPO训练可能出现不稳定,需要仔细调参。
计算开销大:需要频繁地从策略模型采样,生成回答的成本高。
DPO(Direct Preference Optimization,直接偏好优化) 提出了一种更简单的方案:直接用偏好数据优化语言模型,无需训练单独的奖励模型,也无需使用强化学习。
DPO的核心洞察是:奖励模型和最优策略之间存在一一对应的关系。给定一个奖励函数,可以通过贝尔曼最优性方程推导出最优策略;反之,给定一个策略,也可以推导出对应的奖励函数。
基于这个洞察,DPO将偏好数据直接用于优化语言模型,跳过了奖励模型训练和RL优化两个阶段。
5.2 DPO的数学推导
DPO的推导基于以下关键观察:在KL约束下的RL问题中,最优策略与参考策略之间的关系为:
pi*(y|x) = (1/Z(x)) * pi_SFT(y|x) * exp(r(x, y) / beta)
其中 Z(x) 是归一化常数。这个公式表明,最优策略是对参考策略的指数加权,权重由奖励函数决定。
反过来,我们可以将奖励函数表示为策略的函数:
r(x, y) = beta * log(pi*(y|x) / pi_SFT(y|x)) + beta * log Z(x)
将这个表达式代入Bradley-Terry模型,我们得到DPO的损失函数:
L_DPO = -E_{(x, y_w, y_l)~D}[log sigma(beta * log(pi(y_w|x) / pi_SFT(y_w|x)) - beta * log(pi(y_l|x) / pi_SFT(y_l|x)))]
这个损失函数直接比较了偏好回答和非偏好回答的相对对数概率。模型被鼓励增加偏好回答的概率,同时降低非偏好回答的概率。
5.3 DPO的优势与局限
优势:
简洁性:只需要一个模型(策略模型)和一个参考模型(固定参数的SFT模型),大大简化了训练流程。
稳定性:使用标准的监督学习目标,训练稳定,无需调PPO的各种超参数。
计算效率:不需要从策略模型采样,直接使用已有的偏好数据进行训练,计算效率高。
性能相当:在多个基准测试上,DPO的性能与RLHF相当甚至更好。
局限:
参考模型依赖:DPO依赖于参考模型(SFT模型)的质量。如果SFT模型本身不够好,DPO的效果也会受限。
分布偏移:DPO在训练时只使用数据集中的偏好对,可能无法很好地泛化到分布外的样本。
超参数敏感:beta参数(温度参数)对性能影响较大,需要仔细调参。
5.4 DPO的变种与改进
IPO(Identity Preference Optimization):改进了DPO的损失函数,使用对称的偏好建模,在某些任务上表现更好。
L_IPO = (log(pi(y_w|x) / pi_SFT(y_w|x)) - log(pi(y_l|x) / pi_SFT(y_l|x)) - tau)^2
KTO(Kahneman-Tversky Optimization):只需要二元偏好标签(好/坏),不需要成对比较,降低了数据收集成本。
RPO(Robust Preference Optimization):引入鲁棒性约束,防止模型对噪声数据的过拟合。
SimPO(Simple Preference Optimization):进一步简化DPO,移除了参考模型,只使用长度归一化的对数概率。
6. RLVR与GRPO:2025年的新范式
6.1 从RLHF到RLVR的转变
2025年,大模型训练领域迎来了一个重要的范式转变:从RLHF到RLVR(Reinforcement Learning from Verifiable Rewards,基于可验证奖励的强化学习)。
RLHF的核心局限在于奖励模型的不准确性。奖励模型只是人类偏好的近似,可能存在偏差和错误。过度优化奖励模型会导致过拟合其缺陷,产生"奖励黑客"行为。
RLVR提出了一种新的思路:在某些任务上,我们可以定义客观、可验证的奖励函数,而不是依赖人类偏好或奖励模型。
可验证奖励的典型场景:
数学推理:数学问题的答案是可以验证的。模型生成的解答是否正确,可以通过与标准答案对比来验证。
代码生成:代码的正确性可以通过执行来验证。代码是否能通过测试用例、是否能产生正确的输出,都是客观可验证的。
逻辑推理:逻辑谜题、科学问答等任务有明确的正确答案,可以自动验证。
形式化证明:数学定理的形式化证明可以通过证明检查器验证其正确性。
6.2 DeepSeek-R1与GRPO算法(2025年重大突破)
2025年1月,DeepSeek发布的DeepSeek-R1模型在AI领域引起轰动。这是首个通过纯强化学习(无需监督微调)就能激发强大推理能力的大语言模型。
6.2.1 DeepSeek-R1的核心创新
核心发现:通过大规模RL训练,模型可以自发涌现出复杂的推理行为,包括:
- 自我反思(Self-reflection):模型会检查自己的推理过程
- 思维链延长:面对难题时自动增加推理步骤
- 多种解题策略:尝试不同方法并选择最优解
训练成本:仅557万美元,远低于同类模型(如GPT-4的训练成本估计超过1亿美元)
性能表现:在数学推理任务上达到OpenAI o1水平,模型完全开源
6.2.2 GRPO:Group Relative Policy Optimization
DeepSeek-R1采用了一种新的强化学习算法——GRPO(Group Relative Policy Optimization),这是对传统PPO的重大改进。
传统PPO的问题:
- 需要训练一个价值网络(Critic),增加显存开销
- 在稀疏奖励场景下,价值估计不准确
- 奖励模型的噪声会影响优势估计
GRPO的核心思想:
不再使用Critic网络估计价值,而是通过组内相对奖励来计算优势函数:
算法流程:
-
采样阶段:对于每个问题,生成G个回答(如G=8)
{o1,o2,...,oG}∼πθ\{o_1, o_2, ..., o_G\} \sim \pi_\theta{o1,o2,...,oG}∼πθ -
奖励计算:使用奖励模型或验证器计算每个回答的奖励
{r1,r2,...,rG}\{r_1, r_2, ..., r_G\}{r1,r2,...,rG} -
优势估计:使用组内相对值作为优势
Ai=ri−mean({r1,...,rG})std({r1,...,rG})A_i = \frac{r_i - \text{mean}(\{r_1, ..., r_G\})}{\text{std}(\{r_1, ..., r_G\})}Ai=std({r1,...,rG})ri−mean({r1,...,rG}) -
策略更新:使用PPO-clip目标函数
LGRPO=1G∑i=1G[min(πθ(oi)πθold(oi)Ai,clip(πθ(oi)πθold(oi),1−ϵ,1+ϵ)Ai)]L_{GRPO} = \frac{1}{G} \sum_{i=1}^{G} \left[ \min\left( \frac{\pi_\theta(o_i)}{\pi_{\theta_{old}}(o_i)} A_i, \text{clip}\left(\frac{\pi_\theta(o_i)}{\pi_{\theta_{old}}(o_i)}, 1-\epsilon, 1+\epsilon\right) A_i \right) \right]LGRPO=G1i=1∑G[min(πθold(oi)πθ(oi)Ai,clip(πθold(oi)πθ(oi),1−ϵ,1+ϵ)Ai)]
GRPO的优势:
| 特性 | PPO | GRPO |
|---|---|---|
| Critic网络 | 需要 | 不需要 |
| 显存开销 | 高(2倍模型大小) | 低(仅需策略模型) |
| 稀疏奖励 | 价值估计困难 | 组内比较更稳定 |
| 奖励噪声 | 直接影响优势 | 通过平均减少噪声 |
| 实现复杂度 | 较高 | 更简单 |
数学推导:
GRPO的优势估计可以看作是一种自适应基线方法。传统PPO使用价值函数作为基线:
At=rt−V(st)A_t = r_t - V(s_t)At=rt−V(st)
而GRPO使用组内平均作为基线:
Ai=ri−rˉA_i = r_i - \bar{r}Ai=ri−rˉ
这种基线的好处:
- 不需要额外训练价值网络
- 对于同一问题的不同回答,组内比较更公平
- 标准化(除以标准差)使得优势值更稳定
6.2.3 DeepSeek-R1的训练流程
DeepSeek-R1的训练分为两个阶段:
阶段一:DeepSeek-R1-Zero(纯RL)
完全跳过监督微调(SFT),直接从基础模型开始RL训练:
基础模型 → GRPO训练 → DeepSeek-R1-Zero
关键发现:
- 模型在RL训练过程中自发学会延长思维链
- 出现了"顿悟时刻"(Aha Moment):模型学会重新评估之前的步骤
- 推理能力随训练持续提高,没有明显 plateau
阶段二:DeepSeek-R1(冷启动+RL)
为了改善模型的可读性和多语言能力,采用冷启动数据:
基础模型 → SFT(少量高质量数据) → GRPO训练 → DeepSeek-R1
冷启动数据:
- 数千条带推理过程的高质量样例
- 人工标注的数学、代码推理数据
- 多语言推理数据
6.2.4 GRPO代码实现
import torch
import torch.nn as nn
from transformers import AutoModelForCausalLM, AutoTokenizer
class GRPOTrainer:
"""GRPO训练器"""
def __init__(self, model, ref_model, tokenizer,
group_size=8, epsilon=0.2, beta=0.01):
self.model = model
self.ref_model = ref_model # 参考模型(固定)
self.tokenizer = tokenizer
self.group_size = group_size
self.epsilon = epsilon
self.beta = beta # KL惩罚系数
def compute_rewards(self, prompts, responses):
"""
计算奖励
实际应用中可以使用奖励模型或规则验证
"""
rewards = []
for prompt, response in zip(prompts, responses):
# 示例:使用简单的正确性检查
reward = self.verify_answer(prompt, response)
rewards.append(reward)
return torch.tensor(rewards, dtype=torch.float32)
def compute_grpo_loss(self, prompts, old_log_probs):
"""计算GRPO损失"""
batch_size = len(prompts)
all_advantages = []
all_ratios = []
for i in range(batch_size):
prompt = prompts[i]
# 生成G个回答
responses = []
log_probs = []
for _ in range(self.group_size):
response, log_prob = self.generate_response(prompt)
responses.append(response)
log_probs.append(log_prob)
# 计算奖励
rewards = self.compute_rewards([prompt] * self.group_size, responses)
# 计算组内优势
mean_reward = rewards.mean()
std_reward = rewards.std() + 1e-8
advantages = (rewards - mean_reward) / std_reward
# 计算新策略的概率
new_log_probs = self.compute_log_probs(prompts, responses)
# 计算比率
ratios = torch.exp(new_log_probs - old_log_probs[i])
# PPO-clip目标
surr1 = ratios * advantages
surr2 = torch.clamp(ratios, 1-self.epsilon, 1+self.epsilon) * advantages
policy_loss = -torch.min(surr1, surr2).mean()
# KL惩罚(防止偏离参考模型太远)
with torch.no_grad():
ref_log_probs = self.ref_model.compute_log_probs(prompts, responses)
kl_div = (new_log_probs - ref_log_probs).mean()
total_loss = policy_loss + self.beta * kl_div
return total_loss
def train_step(self, batch):
"""单步训练"""
prompts = batch['prompts']
# 计算旧策略的概率
with torch.no_grad():
old_responses = []
old_log_probs = []
for prompt in prompts:
responses = []
log_probs = []
for _ in range(self.group_size):
response, log_prob = self.generate_response(prompt)
responses.append(response)
log_probs.append(log_prob)
old_responses.append(responses)
old_log_probs.append(torch.stack(log_probs))
# 计算GRPO损失并更新
loss = self.compute_grpo_loss(prompts, old_log_probs)
self.optimizer.zero_grad()
loss.backward()
torch.nn.utils.clip_grad_norm_(self.model.parameters(), 1.0)
self.optimizer.step()
return loss.item()
6.3 OpenAI o1/o3与过程奖励模型
OpenAI的o1(2024年9月)和o3(2024年12月)代表了推理模型的另一技术路线。
6.3.1 核心技术创新
1. 过程奖励模型(Process Reward Model, PRM)
不同于只奖励最终结果的ORM(Outcome Reward Model),PRM对推理的每一步进行评分:
问题 → [步骤1] → [步骤2] → ... → [步骤N] → 答案
↑ ↑ ↑
PRM评分 PRM评分 PRM评分
PRM的优势:
- 可以定位错误发生的具体步骤
- 提供更细粒度的学习信号
- 帮助模型学习正确的推理链
2. 测试时计算扩展(Test-time Compute Scaling)
在推理时增加计算量来提升性能:
- 多次采样:生成多个候选答案,选择最优
- 树搜索:使用MCTS在推理空间搜索
- 自我修正:模型检查并修正自己的答案
性能提升:
- o3在ARC-AGI基准上达到87.5%,超越人类平均水平(85%)
- 通过增加测试时计算,模型可以解决训练时无法解决的难题
6.3.2 推理时的MCTS搜索
o1/o3在推理时可能使用了类似MCTS的搜索算法:
推理树搜索:
初始问题
/ | \
思路1 思路2 思路3
/ \ | \
步骤1 步骤2 步骤1 ...
/ \ | |
... ... ... ...
每个节点代表一个推理状态,PRM对节点进行评分,指导搜索方向。
6.4 RLVR的核心机制
RLVR的训练流程与RLHF类似,但奖励来源不同:
步骤一:生成候选回答。对于给定的数学问题或编程任务,模型生成多个候选解答。
步骤二:自动验证。使用自动验证器检查每个候选解答的正确性:
- 数学问题:与标准答案对比
- 代码:执行并检查输出是否符合预期
- 形式化证明:使用证明检查器验证
步骤三:分配奖励。根据验证结果分配奖励:
- 正确的解答获得高奖励(如+1)
- 错误的解答获得低奖励(如0或-1)
- 可以进一步根据解答质量给予细粒度奖励
步骤四:RL优化。使用PPO/GRPO等算法优化模型,使其生成更多正确的解答。
6.2 RLVR的核心机制
RLVR的训练流程与RLHF类似,但奖励来源不同:
步骤一:生成候选回答。对于给定的数学问题或编程任务,模型生成多个候选解答。
步骤二:自动验证。使用自动验证器检查每个候选解答的正确性:
- 数学问题:与标准答案对比
- 代码:执行并检查输出是否符合预期
- 形式化证明:使用证明检查器验证
步骤三:分配奖励。根据验证结果分配奖励:
- 正确的解答获得高奖励(如+1)
- 错误的解答获得低奖励(如0或-1)
- 可以进一步根据解答质量给予细粒度奖励
步骤四:RL优化。使用PPO等算法优化模型,使其生成更多正确的解答。
6.3 RLVR的优势
客观性:奖励是客观可验证的,不存在奖励模型的偏差问题。
可扩展性:自动验证可以大规模并行,不需要昂贵的人类标注。
明确性:模型明确知道什么是对的、什么是错的,学习信号更清晰。
持续改进:随着模型能力提升,可以自动解决更难的问题,形成自我改进的循环。
6.4 RLVR的挑战
稀疏奖励问题:在很多情况下,模型生成的解答大部分是错的,只有极少数是对的。这导致奖励信号非常稀疏,学习困难。
探索问题:模型需要探索才能发现正确的解答,但在复杂任务上随机探索的成功率极低。
中间步骤验证:对于多步推理任务,只在最后验证可能不够,需要设计中间步骤的验证方法。
奖励设计:即使答案可验证,如何设计细粒度的奖励信号(如部分正确给予部分奖励)仍然是一个挑战。
6.5 2025年RLVR的研究进展
进展一:过程奖励模型(Process Reward Model)
OpenAI的o1模型和后续的推理模型采用了过程奖励模型,不仅对最终答案进行验证,还对中间推理步骤进行评分。这使得模型能够学习正确的推理链,而不仅仅是猜测最终答案。
进展二:测试时计算扩展
DeepSeek-R1等模型展示了通过增加测试时的计算量(如生成多个候选并选择最好的)可以显著提升性能。这与RLVR的训练相辅相成:训练提升模型生成正确解答的能力,测试时计算扩展进一步提升可靠性。
进展三:自我对弈与迭代优化
AlphaProof等系统采用自我对弈的方式,让模型不断生成和验证数学证明,通过迭代优化提升能力。这与RLVR的理念一致:利用可验证性进行持续学习。
进展四:混合奖励信号
最新的研究开始探索将RLHF和RLVR结合,使用人类偏好奖励和可验证奖励的混合信号进行训练,兼顾通用能力和特定任务的准确性。
7. 不同对齐方法的对比
7.1 方法对比总览
| 方法 | 是否需要奖励模型 | 是否使用RL | 数据需求 | 训练稳定性 | 适用场景 |
|---|---|---|---|---|---|
| SFT | 否 | 否 | 高质量指令对 | 高 | 基础指令遵循 |
| RLHF-PPO | 是 | 是 | 偏好对比数据 | 中 | 通用对齐 |
| DPO | 否 | 否 | 偏好对比数据 | 高 | 通用对齐 |
| RLVR | 否 | 是 | 可验证任务 | 中 | 数学/代码/推理 |
| RLAIF | AI生成 | 是 | AI偏好数据 | 中 | 降低人类标注成本 |
7.2 各方法详细对比
SFT(监督微调):
优点:实现简单,训练稳定,无需复杂的基础设施。
缺点:只能复制数据集中的行为,无法超越标注者;使用最大似然训练,可能生成模糊回答;对分布外样本泛化能力有限。
适用场景:作为RLHF/DPO的初始阶段,或数据质量极高、无需进一步优化的场景。
RLHF-PPO:
优点:性能上限高,可以学习复杂的人类偏好;通过KL约束保持稳定性;经过充分验证,可靠性高。
缺点:流程复杂,需要维护多个模型;训练不稳定,需要仔细调参;计算开销大,需要频繁采样。
适用场景:追求最高性能,有足够计算资源和调参经验的场景。
DPO:
优点:流程简单,只需一个模型;训练稳定,使用标准监督学习;计算效率高,无需在线采样。
缺点:依赖参考模型质量;对超参数beta敏感;在某些任务上性能略低于RLHF。
适用场景:追求简单高效,希望快速获得不错效果的场景。
RLVR:
优点:奖励客观可验证,无偏差问题;可大规模扩展,无需人类标注;学习信号明确。
缺点:只适用于可验证任务;奖励稀疏,学习困难;需要设计验证器和奖励函数。
适用场景:数学推理、代码生成、科学计算等有明确答案的任务。
RLAIF(AI反馈强化学习):
优点:降低对人类标注的依赖;可以大规模生成偏好数据;AI标注一致性高。
缺点:AI偏好可能与人类偏好不一致;需要强大的AI标注模型;存在错误累积风险。
适用场景:人类标注成本过高,或已有强大AI模型的场景。
7.3 选择建议
对于初学者:建议从DPO开始,流程简单,容易上手,效果也不错。
对于追求性能:建议尝试RLHF-PPO,虽然复杂但性能上限最高。
对于特定任务:如果任务有可验证的正确答案(如数学、代码),优先考虑RLVR。
对于资源受限:DPO是最佳选择,计算效率高,硬件要求相对较低。
8. Reward Model训练实现
下面是一个完整的奖励模型训练实现,基于Hugging Face Transformers库:
import torch
import torch.nn as nn
from torch.utils.data import Dataset, DataLoader
from transformers import (
AutoModel, AutoTokenizer, AutoConfig,
AutoModelForSequenceClassification,
TrainingArguments, Trainer
)
from dataclasses import dataclass
from typing import List, Dict, Tuple, Optional
import numpy as np
from tqdm import tqdm
class PreferenceDataset(Dataset):
"""偏好数据集"""
def __init__(
self,
prompts: List[str],
chosen_responses: List[str],
rejected_responses: List[str],
tokenizer,
max_length: int = 512
):
self.prompts = prompts
self.chosen_responses = chosen_responses
self.rejected_responses = rejected_responses
self.tokenizer = tokenizer
self.max_length = max_length
def __len__(self):
return len(self.prompts)
def __getitem__(self, idx) -> Dict[str, torch.Tensor]:
prompt = self.prompts[idx]
chosen = self.chosen_responses[idx]
rejected = self.rejected_responses[idx]
# 编码chosen pair
chosen_text = f"{prompt}\n{chosen}"
chosen_encoding = self.tokenizer(
chosen_text,
max_length=self.max_length,
padding='max_length',
truncation=True,
return_tensors='pt'
)
# 编码rejected pair
rejected_text = f"{prompt}\n{rejected}"
rejected_encoding = self.tokenizer(
rejected_text,
max_length=self.max_length,
padding='max_length',
truncation=True,
return_tensors='pt'
)
return {
'chosen_input_ids': chosen_encoding['input_ids'].squeeze(0),
'chosen_attention_mask': chosen_encoding['attention_mask'].squeeze(0),
'rejected_input_ids': rejected_encoding['input_ids'].squeeze(0),
'rejected_attention_mask': rejected_encoding['attention_mask'].squeeze(0),
}
class RewardModel(nn.Module):
"""奖励模型"""
def __init__(self, model_name: str, num_labels: int = 1):
super().__init__()
self.config = AutoConfig.from_pretrained(model_name)
self.config.num_labels = num_labels
# 加载基础模型
self.backbone = AutoModelForSequenceClassification.from_pretrained(
model_name,
config=self.config
)
# 如果基础模型没有回归头,添加一个
if self.config.num_labels == 1:
self.backbone.score = nn.Linear(self.config.hidden_size, 1)
def forward(
self,
input_ids: torch.Tensor,
attention_mask: torch.Tensor,
return_dict: bool = True
) -> torch.Tensor:
outputs = self.backbone(
input_ids=input_ids,
attention_mask=attention_mask,
return_dict=return_dict
)
return outputs.logits.squeeze(-1) # [batch_size]
class RewardModelTrainer:
"""奖励模型训练器"""
def __init__(
self,
model: RewardModel,
tokenizer,
learning_rate: float = 1e-5,
weight_decay: float = 0.01,
temperature: float = 1.0,
device: str = 'cuda' if torch.cuda.is_available() else 'cpu'
):
self.model = model.to(device)
self.tokenizer = tokenizer
self.device = device
self.temperature = temperature
self.optimizer = torch.optim.AdamW(
model.parameters(),
lr=learning_rate,
weight_decay=weight_decay
)
self.global_step = 0
def compute_preference_loss(
self,
chosen_rewards: torch.Tensor,
rejected_rewards: torch.Tensor
) -> torch.Tensor:
"""
计算Bradley-Terry偏好损失
参数:
chosen_rewards: 偏好回答的奖励 [batch_size]
rejected_rewards: 非偏好回答的奖励 [batch_size]
返回:
loss: 标量损失值
"""
# 计算奖励差异,应用温度缩放
reward_diff = (chosen_rewards - rejected_rewards) / self.temperature
# Bradley-Terry损失: -log(sigmoid(reward_diff))
loss = -torch.log(torch.sigmoid(reward_diff) + 1e-8).mean()
return loss
def compute_accuracy(
self,
chosen_rewards: torch.Tensor,
rejected_rewards: torch.Tensor
) -> float:
"""计算偏好预测准确率"""
correct = (chosen_rewards > rejected_rewards).float().sum()
accuracy = correct / chosen_rewards.size(0)
return accuracy.item()
def train_step(self, batch: Dict[str, torch.Tensor]) -> Dict[str, float]:
"""单步训练"""
self.model.train()
# 将数据移到设备
chosen_input_ids = batch['chosen_input_ids'].to(self.device)
chosen_attention_mask = batch['chosen_attention_mask'].to(self.device)
rejected_input_ids = batch['rejected_input_ids'].to(self.device)
rejected_attention_mask = batch['rejected_attention_mask'].to(self.device)
# 前向传播:计算chosen和rejected的奖励
chosen_rewards = self.model(chosen_input_ids, chosen_attention_mask)
rejected_rewards = self.model(rejected_input_ids, rejected_attention_mask)
# 计算损失
loss = self.compute_preference_loss(chosen_rewards, rejected_rewards)
# 反向传播
self.optimizer.zero_grad()
loss.backward()
# 梯度裁剪
torch.nn.utils.clip_grad_norm_(self.model.parameters(), max_norm=1.0)
self.optimizer.step()
# 计算准确率
accuracy = self.compute_accuracy(chosen_rewards, rejected_rewards)
# 记录奖励统计
metrics = {
'loss': loss.item(),
'accuracy': accuracy,
'chosen_reward_mean': chosen_rewards.mean().item(),
'rejected_reward_mean': rejected_rewards.mean().item(),
'reward_margin': (chosen_rewards - rejected_rewards).mean().item()
}
self.global_step += 1
return metrics
def evaluate(self, dataloader: DataLoader) -> Dict[str, float]:
"""评估模型"""
self.model.eval()
total_loss = 0
total_accuracy = 0
total_chosen_reward = 0
total_rejected_reward = 0
num_batches = 0
with torch.no_grad():
for batch in dataloader:
chosen_input_ids = batch['chosen_input_ids'].to(self.device)
chosen_attention_mask = batch['chosen_attention_mask'].to(self.device)
rejected_input_ids = batch['rejected_input_ids'].to(self.device)
rejected_attention_mask = batch['rejected_attention_mask'].to(self.device)
chosen_rewards = self.model(chosen_input_ids, chosen_attention_mask)
rejected_rewards = self.model(rejected_input_ids, rejected_attention_mask)
loss = self.compute_preference_loss(chosen_rewards, rejected_rewards)
accuracy = self.compute_accuracy(chosen_rewards, rejected_rewards)
total_loss += loss.item()
total_accuracy += accuracy
total_chosen_reward += chosen_rewards.mean().item()
total_rejected_reward += rejected_rewards.mean().item()
num_batches += 1
return {
'eval_loss': total_loss / num_batches,
'eval_accuracy': total_accuracy / num_batches,
'eval_chosen_reward': total_chosen_reward / num_batches,
'eval_rejected_reward': total_rejected_reward / num_batches
}
def train(
self,
train_dataloader: DataLoader,
eval_dataloader: Optional[DataLoader] = None,
num_epochs: int = 3,
log_interval: int = 100,
eval_interval: int = 500
):
"""完整训练流程"""
print(f"开始训练奖励模型,设备: {self.device}")
print(f"训练样本数: {len(train_dataloader.dataset)}")
print(f"Epoch数: {num_epochs}")
for epoch in range(num_epochs):
print(f"\nEpoch {epoch + 1}/{num_epochs}")
epoch_metrics = []
progress_bar = tqdm(train_dataloader, desc=f"Epoch {epoch + 1}")
for step, batch in enumerate(progress_bar):
metrics = self.train_step(batch)
epoch_metrics.append(metrics)
# 更新进度条
if step % log_interval == 0:
avg_loss = np.mean([m['loss'] for m in epoch_metrics[-log_interval:]])
avg_acc = np.mean([m['accuracy'] for m in epoch_metrics[-log_interval:]])
progress_bar.set_postfix({
'loss': f"{avg_loss:.4f}",
'acc': f"{avg_acc:.4f}"
})
# 定期评估
if eval_dataloader and self.global_step % eval_interval == 0:
eval_metrics = self.evaluate(eval_dataloader)
print(f"\nStep {self.global_step} 评估结果:")
for key, value in eval_metrics.items():
print(f" {key}: {value:.4f}")
# 每个epoch结束后的统计
avg_metrics = {
key: np.mean([m[key] for m in epoch_metrics])
for key in epoch_metrics[0].keys()
}
print(f"\nEpoch {epoch + 1} 平均指标:")
for key, value in avg_metrics.items():
print(f" {key}: {value:.4f}")
def save_model(self, save_path: str):
"""保存模型"""
self.model.backbone.save_pretrained(save_path)
self.tokenizer.save_pretrained(save_path)
print(f"模型已保存到: {save_path}")
def load_model(self, load_path: str):
"""加载模型"""
self.model.backbone = AutoModelForSequenceClassification.from_pretrained(load_path)
self.tokenizer = AutoTokenizer.from_pretrained(load_path)
print(f"模型已从 {load_path} 加载")
def create_sample_data():
"""创建示例偏好数据"""
prompts = [
"解释什么是机器学习:",
"如何学习Python编程?",
"什么是深度学习?",
"解释强化学习的概念:",
"什么是神经网络?"
] * 20 # 重复以扩充数据集
chosen_responses = [
"机器学习是人工智能的一个分支,它使计算机能够从数据中学习并改进性能,而无需明确编程。",
"学习Python可以从基础语法开始,然后通过实践项目提升技能,推荐使用官方文档和在线教程。",
"深度学习是机器学习的一种,使用多层神经网络来学习数据的层次化表示。",
"强化学习是一种通过与环境交互来学习最优行为策略的机器学习方法。",
"神经网络是受生物神经元启发的计算模型,由相互连接的节点层组成,能够学习复杂的模式。"
] * 20
rejected_responses = [
"机器学习就是电脑自己学习东西。",
"Python很简单,随便学学就会了。",
"深度学习就是很深的网络。",
"强化学习就是加强学习效果。",
"神经网络就是像人脑一样的网络。"
] * 20
return prompts, chosen_responses, rejected_responses
# 使用示例
if __name__ == "__main__":
# 配置
MODEL_NAME = "distilbert-base-uncased" # 使用较小的模型作为示例
MAX_LENGTH = 512
BATCH_SIZE = 4
NUM_EPOCHS = 3
LEARNING_RATE = 1e-5
# 加载tokenizer和模型
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
if tokenizer.pad_token is None:
tokenizer.pad_token = tokenizer.eos_token
reward_model = RewardModel(MODEL_NAME)
# 创建数据集
prompts, chosen, rejected = create_sample_data()
dataset = PreferenceDataset(prompts, chosen, rejected, tokenizer, MAX_LENGTH)
# 划分训练集和验证集
train_size = int(0.9 * len(dataset))
eval_size = len(dataset) - train_size
train_dataset, eval_dataset = torch.utils.data.random_split(dataset, [train_size, eval_size])
train_dataloader = DataLoader(train_dataset, batch_size=BATCH_SIZE, shuffle=True)
eval_dataloader = DataLoader(eval_dataset, batch_size=BATCH_SIZE)
# 创建训练器
trainer = RewardModelTrainer(
model=reward_model,
tokenizer=tokenizer,
learning_rate=LEARNING_RATE,
temperature=1.0
)
# 训练
trainer.train(
train_dataloader=train_dataloader,
eval_dataloader=eval_dataloader,
num_epochs=NUM_EPOCHS,
log_interval=10,
eval_interval=50
)
# 保存模型
trainer.save_model("./reward_model")
9. DPO算法实现
下面是一个完整的DPO算法实现:
import torch
import torch.nn as nn
import torch.nn.functional as F
from torch.utils.data import Dataset, DataLoader
from transformers import AutoModelForCausalLM, AutoTokenizer
from typing import List, Dict, Tuple
import numpy as np
from tqdm import tqdm
class DPO_Dataset(Dataset):
"""DPO数据集"""
def __init__(
self,
prompts: List[str],
chosen_responses: List[str],
rejected_responses: List[str],
tokenizer,
max_prompt_length: int = 256,
max_response_length: int = 512
):
self.prompts = prompts
self.chosen_responses = chosen_responses
self.rejected_responses = rejected_responses
self.tokenizer = tokenizer
self.max_prompt_length = max_prompt_length
self.max_response_length = max_response_length
self.max_length = max_prompt_length + max_response_length
def __len__(self):
return len(self.prompts)
def __getitem__(self, idx) -> Dict[str, torch.Tensor]:
prompt = self.prompts[idx]
chosen = self.chosen_responses[idx]
rejected = self.rejected_responses[idx]
# 编码prompt
prompt_encoding = self.tokenizer(
prompt,
max_length=self.max_prompt_length,
truncation=True,
return_tensors='pt'
)
prompt_ids = prompt_encoding['input_ids'].squeeze(0)
prompt_mask = prompt_encoding['attention_mask'].squeeze(0)
prompt_length = prompt_mask.sum().item()
# 编码chosen完整序列
chosen_full = f"{prompt}{chosen}"
chosen_encoding = self.tokenizer(
chosen_full,
max_length=self.max_length,
padding='max_length',
truncation=True,
return_tensors='pt'
)
# 编码rejected完整序列
rejected_full = f"{prompt}{rejected}"
rejected_encoding = self.tokenizer(
rejected_full,
max_length=self.max_length,
padding='max_length',
truncation=True,
return_tensors='pt'
)
return {
'prompt_ids': prompt_ids,
'prompt_mask': prompt_mask,
'prompt_length': prompt_length,
'chosen_ids': chosen_encoding['input_ids'].squeeze(0),
'chosen_mask': chosen_encoding['attention_mask'].squeeze(0),
'rejected_ids': rejected_encoding['input_ids'].squeeze(0),
'rejected_mask': rejected_encoding['attention_mask'].squeeze(0),
}
class DPO_Trainer:
"""DPO训练器"""
def __init__(
self,
model: nn.Module,
ref_model: nn.Module,
tokenizer,
beta: float = 0.1,
learning_rate: float = 1e-6,
weight_decay: float = 0.01,
label_smoothing: float = 0.0,
device: str = 'cuda' if torch.cuda.is_available() else 'cpu'
):
self.model = model.to(device)
self.ref_model = ref_model.to(device)
self.tokenizer = tokenizer
self.device = device
self.beta = beta
self.label_smoothing = label_smoothing
# 冻结参考模型
for param in self.ref_model.parameters():
param.requires_grad = False
self.ref_model.eval()
# 优化器
self.optimizer = torch.optim.AdamW(
model.parameters(),
lr=learning_rate,
weight_decay=weight_decay,
betas=(0.9, 0.999)
)
self.global_step = 0
def compute_log_probs(
self,
model: nn.Module,
input_ids: torch.Tensor,
attention_mask: torch.Tensor,
prompt_length: int
) -> torch.Tensor:
"""
计算响应部分的对数概率
参数:
model: 语言模型
input_ids: 输入token ids [batch_size, seq_len]
attention_mask: 注意力掩码 [batch_size, seq_len]
prompt_length: prompt的长度(用于区分prompt和response)
返回:
log_probs: 每个样本的对数概率 [batch_size]
"""
outputs = model(
input_ids=input_ids,
attention_mask=attention_mask
)
logits = outputs.logits # [batch_size, seq_len, vocab_size]
# 计算每个token的对数概率
log_probs = F.log_softmax(logits, dim=-1)
# 获取实际token的对数概率(shift by 1)
target_log_probs = log_probs[:, :-1, :].gather(
dim=-1,
index=input_ids[:, 1:].unsqueeze(-1)
).squeeze(-1) # [batch_size, seq_len-1]
# 只计算response部分(prompt之后的部分)
response_mask = attention_mask[:, 1:].clone()
# 创建position mask,只保留prompt之后的token
batch_size, seq_len = input_ids.shape
position_mask = torch.arange(seq_len - 1, device=input_ids.device).unsqueeze(0)
position_mask = position_mask >= (prompt_length - 1)
response_mask = response_mask * position_mask
# 计算平均对数概率
masked_log_probs = (target_log_probs * response_mask).sum(dim=-1)
response_lengths = response_mask.sum(dim=-1).clamp(min=1)
avg_log_probs = masked_log_probs / response_lengths
return avg_log_probs
def compute_dpo_loss(
self,
policy_chosen_logps: torch.Tensor,
policy_rejected_logps: torch.Tensor,
ref_chosen_logps: torch.Tensor,
ref_rejected_logps: torch.Tensor
) -> Tuple[torch.Tensor, Dict[str, float]]:
"""
计算DPO损失
参数:
policy_chosen_logps: 策略模型对chosen的log probs
policy_rejected_logps: 策略模型对rejected的log probs
ref_chosen_logps: 参考模型对chosen的log probs
ref_rejected_logps: 参考模型对rejected的log probs
返回:
loss: DPO损失
metrics: 训练指标
"""
# 计算log ratio
policy_logratios = policy_chosen_logps - policy_rejected_logps
ref_logratios = ref_chosen_logps - ref_rejected_logps
# DPO损失
logits = self.beta * (policy_logratios - ref_logratios)
if self.label_smoothing > 0:
# 标签平滑
loss = -F.logsigmoid(logits) * (1 - self.label_smoothing) - \
F.logsigmoid(-logits) * self.label_smoothing
loss = loss.mean()
else:
loss = -F.logsigmoid(logits).mean()
# 计算指标
chosen_rewards = self.beta * (policy_chosen_logps - ref_chosen_logps)
rejected_rewards = self.beta * (policy_rejected_logps - ref_rejected_logps)
metrics = {
'loss': loss.item(),
'chosen_reward': chosen_rewards.mean().item(),
'rejected_reward': rejected_rewards.mean().item(),
'reward_margin': (chosen_rewards - rejected_rewards).mean().item(),
'accuracy': (chosen_rewards > rejected_rewards).float().mean().item(),
'policy_chosen_logp': policy_chosen_logps.mean().item(),
'policy_rejected_logp': policy_rejected_logps.mean().item(),
}
return loss, metrics
def train_step(self, batch: Dict[str, torch.Tensor]) -> Dict[str, float]:
"""单步训练"""
self.model.train()
# 获取batch数据
chosen_ids = batch['chosen_ids'].to(self.device)
chosen_mask = batch['chosen_mask'].to(self.device)
rejected_ids = batch['rejected_ids'].to(self.device)
rejected_mask = batch['rejected_mask'].to(self.device)
prompt_lengths = batch['prompt_length']
# 计算策略模型的log probs
policy_chosen_logps = self.compute_log_probs(
self.model, chosen_ids, chosen_mask, prompt_lengths[0]
)
policy_rejected_logps = self.compute_log_probs(
self.model, rejected_ids, rejected_mask, prompt_lengths[0]
)
# 计算参考模型的log probs
with torch.no_grad():
ref_chosen_logps = self.compute_log_probs(
self.ref_model, chosen_ids, chosen_mask, prompt_lengths[0]
)
ref_rejected_logps = self.compute_log_probs(
self.ref_model, rejected_ids, rejected_mask, prompt_lengths[0]
)
# 计算DPO损失
loss, metrics = self.compute_dpo_loss(
policy_chosen_logps,
policy_rejected_logps,
ref_chosen_logps,
ref_rejected_logps
)
# 反向传播
self.optimizer.zero_grad()
loss.backward()
# 梯度裁剪
torch.nn.utils.clip_grad_norm_(self.model.parameters(), max_norm=1.0)
self.optimizer.step()
self.global_step += 1
return metrics
def evaluate(self, dataloader: DataLoader) -> Dict[str, float]:
"""评估模型"""
self.model.eval()
all_metrics = []
with torch.no_grad():
for batch in dataloader:
chosen_ids = batch['chosen_ids'].to(self.device)
chosen_mask = batch['chosen_mask'].to(self.device)
rejected_ids = batch['rejected_ids'].to(self.device)
rejected_mask = batch['rejected_mask'].to(self.device)
prompt_lengths = batch['prompt_length']
policy_chosen_logps = self.compute_log_probs(
self.model, chosen_ids, chosen_mask, prompt_lengths[0]
)
policy_rejected_logps = self.compute_log_probs(
self.model, rejected_ids, rejected_mask, prompt_lengths[0]
)
ref_chosen_logps = self.compute_log_probs(
self.ref_model, chosen_ids, chosen_mask, prompt_lengths[0]
)
ref_rejected_logps = self.compute_log_probs(
self.ref_model, rejected_ids, rejected_mask, prompt_lengths[0]
)
_, metrics = self.compute_dpo_loss(
policy_chosen_logps,
policy_rejected_logps,
ref_chosen_logps,
ref_rejected_logps
)
all_metrics.append(metrics)
# 平均指标
avg_metrics = {
key: np.mean([m[key] for m in all_metrics])
for key in all_metrics[0].keys()
}
return avg_metrics
def train(
self,
train_dataloader: DataLoader,
eval_dataloader: DataLoader = None,
num_epochs: int = 3,
log_interval: int = 10,
eval_interval: int = 100
):
"""完整训练流程"""
print(f"开始DPO训练,设备: {self.device}")
print(f"训练样本数: {len(train_dataloader.dataset)}")
print(f"Beta: {self.beta}")
for epoch in range(num_epochs):
print(f"\nEpoch {epoch + 1}/{num_epochs}")
epoch_metrics = []
progress_bar = tqdm(train_dataloader, desc=f"Epoch {epoch + 1}")
for step, batch in enumerate(progress_bar):
metrics = self.train_step(batch)
epoch_metrics.append(metrics)
# 更新进度条
if step % log_interval == 0:
recent_metrics = {
key: np.mean([m[key] for m in epoch_metrics[-log_interval:]])
for key in metrics.keys()
}
progress_bar.set_postfix({
'loss': f"{recent_metrics['loss']:.4f}",
'acc': f"{recent_metrics['accuracy']:.4f}",
'margin': f"{recent_metrics['reward_margin']:.4f}"
})
# 定期评估
if eval_dataloader and self.global_step % eval_interval == 0:
eval_metrics = self.evaluate(eval_dataloader)
print(f"\nStep {self.global_step} 评估结果:")
for key, value in eval_metrics.items():
print(f" {key}: {value:.4f}")
# 每个epoch结束后的统计
avg_metrics = {
key: np.mean([m[key] for m in epoch_metrics])
for key in epoch_metrics[0].keys()
}
print(f"\nEpoch {epoch + 1} 平均指标:")
for key, value in avg_metrics.items():
print(f" {key}: {value:.4f}")
def save_model(self, save_path: str):
"""保存模型"""
self.model.save_pretrained(save_path)
self.tokenizer.save_pretrained(save_path)
print(f"模型已保存到: {save_path}")
def create_dpo_sample_data():
"""创建DPO示例数据"""
prompts = [
"用户:请解释什么是区块链。\n助手:",
"用户:如何保持健康的饮食习惯?\n助手:",
"用户:介绍一下Python编程语言。\n助手:",
"用户:什么是人工智能?\n助手:",
"用户:如何学习一门新语言?\n助手:"
] * 20
chosen_responses = [
"区块链是一种分布式账本技术,它通过密码学方法将数据块按时间顺序链接在一起。每个区块包含多笔交易记录,并且通过哈希值与前一个区块相连,形成不可篡改的链条。区块链技术具有去中心化、透明性和安全性等特点,被广泛应用于加密货币、供应链管理、数字身份验证等领域。",
"保持健康的饮食习惯可以从以下几个方面入手:首先,保持饮食多样化,确保摄入充足的蔬菜、水果、全谷物和优质蛋白质;其次,控制糖分和盐分的摄入,减少加工食品的消费;第三,保持规律的进餐时间,避免暴饮暴食;最后,多喝水,保持充足的水分摄入。",
"Python是一种高级、解释型的编程语言,由Guido van Rossum于1991年创建。它以简洁、易读的语法著称,强调代码的可读性和简洁性。Python支持多种编程范式,包括面向对象、函数式和过程式编程。它拥有丰富的标准库和第三方库,广泛应用于Web开发、数据分析、人工智能、科学计算等领域。",
"人工智能(AI)是计算机科学的一个分支,旨在创建能够执行通常需要人类智能才能完成的任务的系统。这包括学习、推理、问题解决、感知和语言理解等能力。AI技术包括机器学习、深度学习、自然语言处理、计算机视觉等。AI已经广泛应用于图像识别、语音识别、自动驾驶、医疗诊断等领域。",
"学习一门新语言需要系统的方法和持续的练习。首先,建立明确的学习目标,确定学习的动机和期望达到的水平;其次,从基础开始,学习语音、词汇和基本语法;第三,进行大量的听力、口语、阅读和写作练习;第四,寻找语言交流的机会,与母语者对话;最后,保持耐心和持续性,语言学习是一个长期的过程。"
] * 20
rejected_responses = [
"区块链就是一种数字货币技术。",
"少吃多动就行了。",
"Python就是一种编程语言,很简单。",
"AI就是让电脑变聪明的技术。",
"多背单词就行了。"
] * 20
return prompts, chosen_responses, rejected_responses
# 使用示例
if __name__ == "__main__":
# 配置
MODEL_NAME = "gpt2" # 使用GPT-2作为示例
MAX_PROMPT_LENGTH = 128
MAX_RESPONSE_LENGTH = 256
BATCH_SIZE = 2
NUM_EPOCHS = 3
LEARNING_RATE = 5e-7
BETA = 0.1
# 加载tokenizer和模型
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
tokenizer.pad_token = tokenizer.eos_token
# 加载策略模型和参考模型(初始时相同)
policy_model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
ref_model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
# 创建数据集
prompts, chosen, rejected = create_dpo_sample_data()
dataset = DPO_Dataset(
prompts, chosen, rejected, tokenizer,
MAX_PROMPT_LENGTH, MAX_RESPONSE_LENGTH
)
# 划分训练集和验证集
train_size = int(0.9 * len(dataset))
eval_size = len(dataset) - train_size
train_dataset, eval_dataset = torch.utils.data.random_split(dataset, [train_size, eval_size])
train_dataloader = DataLoader(train_dataset, batch_size=BATCH_SIZE, shuffle=True)
eval_dataloader = DataLoader(eval_dataset, batch_size=BATCH_SIZE)
# 创建DPO训练器
trainer = DPO_Trainer(
model=policy_model,
ref_model=ref_model,
tokenizer=tokenizer,
beta=BETA,
learning_rate=LEARNING_RATE
)
# 训练
trainer.train(
train_dataloader=train_dataloader,
eval_dataloader=eval_dataloader,
num_epochs=NUM_EPOCHS,
log_interval=5,
eval_interval=50
)
# 保存模型
trainer.save_model("./dpo_model")
10. 开源LLM微调实战
10.1 使用TRL库进行RLHF训练
TRL(Transformer Reinforcement Learning)是Hugging Face开发的一个专门用于LLM对齐的库,它简化了RLHF和DPO的训练流程。
# 安装依赖
# pip install trl transformers datasets accelerate
from transformers import (
AutoModelForCausalLM,
AutoTokenizer,
TrainingArguments
)
from trl import PPOTrainer, PPOConfig, AutoModelForCausalLMWithValueHead
from datasets import load_dataset
import torch
# 1. 加载模型和tokenizer
model_name = "gpt2"
model = AutoModelForCausalLMWithValueHead.from_pretrained(model_name)
ref_model = AutoModelForCausalLMWithValueHead.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
tokenizer.pad_token = tokenizer.eos_token
# 2. 加载奖励模型(这里使用示例,实际应加载训练好的奖励模型)
reward_model = AutoModelForCausalLM.from_pretrained(model_name)
def get_reward(query, response):
"""简化的奖励函数示例"""
# 实际应用中应该使用训练好的奖励模型
inputs = tokenizer(query + response, return_tensors="pt", truncation=True)
with torch.no_grad():
outputs = reward_model(**inputs)
# 这里使用一个简单的启发式:回答长度作为奖励
reward = len(response) / 100.0
return torch.tensor(reward)
# 3. 准备数据集
dataset = load_dataset("imdb", split="train[:100]")
def build_dataset(dataset, tokenizer):
"""构建训练数据集"""
def tokenize(sample):
sample["input_ids"] = tokenizer.encode(
sample["text"][:200],
return_tensors="pt",
truncation=True,
max_length=128
)[0]
sample["query"] = tokenizer.decode(sample["input_ids"])
return sample
dataset = dataset.map(tokenize, batched=False)
dataset.set_format(type="torch")
return dataset
dataset = build_dataset(dataset, tokenizer)
# 4. 配置PPO
ppo_config = PPOConfig(
model_name=model_name,
learning_rate=1e-5,
batch_size=4,
mini_batch_size=1,
gradient_accumulation_steps=4,
optimize_cuda_cache=True,
early_stopping=False,
target_kl=0.1,
ppo_epochs=4,
seed=42,
)
# 5. 创建PPO训练器
ppo_trainer = PPOTrainer(
config=ppo_config,
model=model,
ref_model=ref_model,
tokenizer=tokenizer,
dataset=dataset,
data_collator=lambda x: dict((key, [d[key] for d in x]) for key in x[0])
)
# 6. 训练循环
generation_kwargs = {
"min_length": -1,
"top_k": 0.0,
"top_p": 1.0,
"do_sample": True,
"pad_token_id": tokenizer.eos_token_id,
"max_new_tokens": 50,
}
for epoch in range(3):
for batch in ppo_trainer.dataloader:
query_tensors = batch["input_ids"]
# 生成响应
response_tensors = ppo_trainer.generate(
query_tensors,
return_prompt=False,
**generation_kwargs
)
# 解码查询和响应
queries = [tokenizer.decode(q, skip_special_tokens=True) for q in query_tensors]
responses = [tokenizer.decode(r, skip_special_tokens=True) for r in response_tensors]
# 计算奖励
rewards = [get_reward(q, r) for q, r in zip(queries, responses)]
# PPO更新
stats = ppo_trainer.step(query_tensors, response_tensors, rewards)
print(f"Epoch {epoch}, Reward: {torch.stack(rewards).mean().item():.4f}")
# 7. 保存模型
ppo_trainer.save_model("./ppo_model")
10.2 使用TRL进行DPO训练
from transformers import (
AutoModelForCausalLM,
AutoTokenizer,
TrainingArguments
)
from trl import DPOTrainer
from datasets import Dataset
import torch
# 1. 加载模型和tokenizer
model_name = "gpt2"
model = AutoModelForCausalLM.from_pretrained(model_name)
ref_model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
tokenizer.pad_token = tokenizer.eos_token
# 2. 准备偏好数据
# 格式:prompt, chosen, rejected
preference_data = [
{
"prompt": "解释什么是机器学习:",
"chosen": "机器学习是人工智能的一个分支,它使计算机能够从数据中学习并改进性能,而无需明确编程。通过算法和统计模型,计算机可以分析数据、识别模式并做出预测。",
"rejected": "机器学习就是电脑自己学习东西。"
},
{
"prompt": "如何学习Python?",
"chosen": "学习Python可以从以下几个步骤开始:首先,安装Python环境;其次,学习基础语法,包括变量、数据类型、控制流等;然后,通过实践项目来巩固知识;最后,深入学习特定领域的库和框架。",
"rejected": "Python很简单,随便学学就会了。"
},
]
# 重复数据以扩充训练集
preference_data = preference_data * 50
dataset = Dataset.from_list(preference_data)
# 3. 配置训练参数
training_args = TrainingArguments(
output_dir="./dpo_output",
num_train_epochs=3,
per_device_train_batch_size=2,
gradient_accumulation_steps=4,
learning_rate=5e-7,
logging_steps=10,
save_steps=100,
warmup_steps=50,
remove_unused_columns=False,
)
# 4. 创建DPO训练器
dpo_trainer = DPOTrainer(
model=model,
ref_model=ref_model,
args=training_args,
train_dataset=dataset,
tokenizer=tokenizer,
beta=0.1, # DPO温度参数
max_length=512,
max_prompt_length=128,
)
# 5. 训练
dpo_trainer.train()
# 6. 保存模型
dpo_trainer.save_model("./dpo_final_model")
10.3 使用DeepSpeed进行大规模训练
对于大规模模型(如LLaMA-7B/13B/70B),需要使用DeepSpeed进行分布式训练:
# deepspeed_config.json
{
"fp16": {
"enabled": true,
"loss_scale": 0,
"loss_scale_window": 1000,
"initial_scale_power": 16,
"hysteresis": 2,
"min_loss_scale": 1
},
"bf16": {
"enabled": false
},
"zero_optimization": {
"stage": 2,
"offload_optimizer": {
"device": "cpu",
"pin_memory": true
},
"allgather_partitions": true,
"allgather_bucket_size": 2e8,
"overlap_comm": true,
"reduce_scatter": true,
"reduce_bucket_size": 2e8,
"contiguous_gradients": true
},
"train_batch_size": "auto",
"train_micro_batch_size_per_gpu": "auto",
"gradient_accumulation_steps": "auto",
"gradient_clipping": 1.0,
"steps_per_print": 10,
"wall_clock_breakdown": false
}
# 使用DeepSpeed进行DPO训练
from accelerate import Accelerator
from transformers import AutoModelForCausalLM, AutoTokenizer
from trl import DPOTrainer
import deepspeed
# 初始化Accelerator
accelerator = Accelerator(deepspeed_plugin=deepspeed_plugin)
# 加载模型
model = AutoModelForCausalLM.from_pretrained(
"meta-llama/Llama-2-7b-hf",
torch_dtype=torch.float16,
device_map="auto"
)
# 配置DeepSpeed训练
training_args = TrainingArguments(
output_dir="./llama_dpo",
num_train_epochs=1,
per_device_train_batch_size=1,
gradient_accumulation_steps=8,
learning_rate=1e-6,
deepspeed="deepspeed_config.json",
fp16=True,
logging_steps=10,
save_strategy="epoch",
)
# 创建训练器并训练
dpo_trainer = DPOTrainer(
model=model,
args=training_args,
train_dataset=dataset,
tokenizer=tokenizer,
beta=0.1,
)
dpo_trainer.train()
11. 避坑小贴士
避坑1:奖励模型的过拟合
问题描述:奖励模型在训练集上表现很好,但在实际使用中给出的分数不合理。
原因分析:
- 训练数据与真实分布不一致
- 模型过度拟合到训练数据的特定模式
- 缺乏足够的多样性数据
解决方案:
- 增加训练数据的多样性,覆盖各种场景
- 使用dropout和权重衰减防止过拟合
- 在验证集上监控性能,及时停止训练
- 定期用人工检查奖励模型的输出
# 添加正则化
from transformers import TrainingArguments
training_args = TrainingArguments(
weight_decay=0.01,
warmup_ratio=0.1,
logging_steps=10,
evaluation_strategy="steps",
eval_steps=100,
save_strategy="steps",
save_steps=100,
load_best_model_at_end=True,
)
避坑2:KL散度爆炸
问题描述:RL训练过程中,策略模型与参考模型的KL散度迅速增大,导致输出质量下降。
原因分析:
- KL惩罚系数设置过小
- 学习率过大
- 奖励信号过于强烈
解决方案:
- 使用自适应KL惩罚系数
- 设置KL散度的上限,超过时停止更新
- 减小学习率,使用更保守的更新策略
# 自适应KL控制
class AdaptiveKLController:
def __init__(self, init_kl_coef=0.2, target_kl=0.01, horizon=10000):
self.kl_coef = init_kl_coef
self.target_kl = target_kl
self.horizon = horizon
self.current_kl = 0
def update(self, current_kl):
self.current_kl = current_kl
# 根据当前KL调整系数
if current_kl < self.target_kl / 1.5:
self.kl_coef *= 0.9
elif current_kl > self.target_kl * 1.5:
self.kl_coef *= 1.1
self.kl_coef = max(0.01, min(self.kl_coef, 1.0))
避坑3:DPO的beta参数选择
问题描述:DPO训练效果不佳,模型要么没有改进,要么偏离参考模型太远。
原因分析:
- beta参数过大:模型过于保守,难以学习新的偏好
- beta参数过小:模型偏离参考模型太远,输出质量下降
解决方案:
- 从beta=0.1开始,根据效果调整
- 如果模型改进不明显,适当减小beta
- 如果输出质量下降,适当增大beta
- 可以使用验证集来选择最佳beta
# beta参数搜索
betas = [0.05, 0.1, 0.2, 0.5]
best_beta = None
best_score = float('-inf')
for beta in betas:
model = train_dpo(beta=beta)
score = evaluate_model(model)
if score > best_score:
best_score = score
best_beta = beta
避坑4:内存不足(OOM)
问题描述:训练大模型时出现CUDA out of memory错误。
解决方案:
- 使用梯度累积减小batch size
- 使用梯度检查点(gradient checkpointing)
- 使用混合精度训练(fp16/bf16)
- 使用DeepSpeed ZeRO优化
- 减小最大序列长度
# 内存优化配置
model.gradient_checkpointing_enable()
training_args = TrainingArguments(
per_device_train_batch_size=1,
gradient_accumulation_steps=8,
fp16=True,
gradient_checkpointing=True,
optim="adamw_torch_fused",
)
避坑5:数据质量问题
问题描述:模型训练后效果不佳,输出不符合预期。
原因分析:
- 偏好数据标注质量不高
- 数据分布与目标场景不匹配
- 正负样本区分度不够
解决方案:
- 严格把控标注质量,多轮审核
- 确保数据覆盖目标使用场景
- 检查偏好对的一致性,剔除矛盾样本
- 使用数据增强技术扩充数据集
# 数据质量检查
def check_data_quality(dataset):
issues = []
for item in dataset:
# 检查chosen和rejected是否相同
if item['chosen'] == item['rejected']:
issues.append(f"相同样本: {item['prompt'][:50]}")
# 检查长度差异
chosen_len = len(item['chosen'])
rejected_len = len(item['rejected'])
if abs(chosen_len - rejected_len) > 1000:
issues.append(f"长度差异过大: {item['prompt'][:50]}")
return issues
避坑6:训练不稳定
问题描述:训练过程中损失波动大,模型性能不稳定。
解决方案:
- 使用warmup策略,逐渐增加学习率
- 使用梯度裁剪防止梯度爆炸
- 减小学习率
- 增加batch size(或使用梯度累积)
- 检查数据是否有异常值
# 稳定训练配置
training_args = TrainingArguments(
learning_rate=1e-6,
warmup_ratio=0.1,
max_grad_norm=1.0,
logging_steps=10,
save_strategy="epoch",
evaluation_strategy="epoch",
load_best_model_at_end=True,
metric_for_best_model="eval_loss",
)
12. 延伸阅读
经典论文
-
Ouyang et al. (2022) - Training language models to follow instructions with human feedback
- InstructGPT论文,RLHF的经典之作
- 论文地址:https://arxiv.org/abs/2203.02155
-
Rafailov et al. (2023) - Direct Preference Optimization: Your Language Model is Secretly a Reward Model
- DPO的原始论文,提出了无需RL的对齐方法
- 论文地址:https://arxiv.org/abs/2305.18290
-
Schulman et al. (2017) - Proximal Policy Optimization Algorithms
- PPO算法的原始论文
- 论文地址:https://arxiv.org/abs/1707.06347
-
Ziegler et al. (2019) - Fine-Tuning Language Models from Human Preferences
- 早期RLHF工作,奠定了后续研究基础
- 论文地址:https://arxiv.org/abs/1909.08593
-
DeepSeek-AI (2025) - DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
- DeepSeek-R1论文,展示了RLVR在推理任务上的成功
- 论文地址:https://arxiv.org/abs/2501.12948
-
OpenAI (2024) - Learning to Reason with LLMs
- o1模型技术报告,介绍了过程奖励模型和测试时计算扩展
- 论文地址:https://openai.com/index/learning-to-reason-with-llms/
前沿方向
方向一:多模态RLHF
将RLHF扩展到多模态场景,包括图像、视频、音频等。研究如何让模型学习人类对多模态内容的偏好。
方向二:多智能体RLHF
研究多个AI系统之间的交互和对齐,包括协作、竞争、博弈等场景下的偏好学习。
方向三:个性化RLHF
让模型学习不同用户的个性化偏好,提供定制化的交互体验。
方向四:安全对齐
研究如何在RLHF过程中确保模型的安全性,防止奖励黑客和对抗性攻击。
方向五:可解释性对齐
让奖励模型的决策更加透明可解释,帮助理解模型学到了什么偏好。
开源资源
代码库:
-
TRL:Hugging Face的RLHF/DPO训练库
https://github.com/huggingface/trl -
LLaMA-Factory:一站式LLM微调框架,支持多种对齐方法
https://github.com/hiyouga/LLaMA-Factory -
Axolotl:简化LLM微调流程的工具
https://github.com/OpenAccess-AI-Collective/axolotl -
OpenRLHF:开源的RLHF训练框架
https://github.com/OpenRLHF/OpenRLHF
数据集:
- Anthropic HH-RLHF:Anthropic发布的RLHF数据集
- OpenAssistant Conversations:开源的助手对话数据集
- SHP(Stanford Human Preferences):斯坦福人类偏好数据集
- UltraFeedback:大规模反馈数据集
在线课程与教程:
- Hugging Face RLHF课程
- DeepLearning.AI的RLHF专项课程
- 各大学NLP/RL课程的讲义和作业
13. 小结
本讲系统性地介绍了RLHF(从人类反馈中学习的强化学习)的理论基础、核心算法和实战应用,这是大语言模型对齐的核心技术。
核心知识点回顾:
-
RLHF的三阶段流程:监督微调(SFT)让模型学会遵循指令,奖励模型训练学习人类偏好,RL优化使用PPO算法提升模型性能。
-
奖励模型训练:基于Bradley-Terry模型,通过成对偏好数据训练奖励模型,使其能够预测人类对不同回答的偏好。
-
PPO在LLM对齐中的应用:PPO通过裁剪目标函数和KL约束,实现了稳定的策略更新,是RLHF的核心优化算法。
-
DPO直接偏好优化:无需训练奖励模型,直接使用偏好数据优化语言模型,简化了训练流程,性能与RLHF相当。
-
RLVR可验证奖励强化学习:2025年的重要趋势,利用客观可验证的奖励信号(如数学答案、代码执行结果)进行训练,在推理任务上取得突破。
-
实战技能:掌握了Reward Model和DPO的完整代码实现,了解了使用TRL、DeepSpeed等工具进行大规模训练的方法。
一句话总结:RLHF及其衍生技术(DPO、RLVR)通过引入人类反馈或可验证奖励,将预训练语言模型与人类偏好和价值观对齐,是大模型从"能说话"到"说得好"的关键技术,也是当前AI对齐研究的核心方向。
随着大模型技术的不断发展,对齐技术也在持续演进。从RLHF到DPO再到RLVR,我们看到的趋势是:训练流程越来越简化,奖励信号越来越明确,模型的推理能力越来越强。掌握这些技术,对于理解和应用大语言模型至关重要。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
所有评论(0)