大模型研发全流程数据集全景报告:通用与垂直领域的差异与演进


核心摘要

本报告基于 2025-2026 年大模型技术落地的行业实践与权威研究,系统梳理了大模型研发全生命周期(数据收集、预处理、训练、微调、评估、对齐、部署)中数据集的类型、规模、功能及演化逻辑。报告核心发现如下:

  1. 数据范式转移:大模型研发已从 “预训练即全部” 转向全流程数据闭环,数据工程的重心从单纯追求规模(TB/PB 级原始数据)转向适配模型架构与场景需求的高质量数据,尤其是小参数垂直模型的精标数据与 MoE 架构的专家模块定制数据。

  2. 领域分化显著:通用大模型依赖万亿级多源语料构建基础能力,垂直领域模型则通过 “通用基座适配 + 领域专属精标数据” 实现专业能力突破,合规性与领域知识密度已成为垂直数据集的核心门槛。

  3. 架构驱动差异:Decoder-only、Encoder-Decoder、MoE 三类主流架构对数据集的格式、规模、分布要求存在本质差异 ——MoE 的 “专家专业化” 需求推动了任务导向型数据集的爆发式增长,其对齐阶段甚至需要为每个专家模块单独构建专属语料。

  4. 效率与质量并重:随着模型规模增长,数据利用效率成为核心约束 —— 小参数模型(7B 及以下)的精标数据效率是大参数模型的 3-5 倍,而合成数据与 RAG 技术的结合,正在逐步打破 “数据规模决定模型能力” 的传统认知。


第一章 大模型研发全流程数据生命周期概述

1.1 大模型研发的阶段划分与数据角色

大模型的研发是围绕 “数据获取 - 处理 - 注入 - 验证 - 迭代” 构建的完整工程体系,其复杂度远超传统机器学习模型 —— 传统模型通常仅需在单一数据集上完成训练,而大模型需要在不同阶段引入差异化数据集,实现从 “通用语言理解” 到 “场景化专业能力” 的逐层跃迁。2025 年信通院的调研数据显示,数据工程环节的资源投入占大模型研发总投入的 60% 以上,且该比例仍在持续提升(60)

大模型研发全流程数据生命周期图:

反馈数据

数据收集

数据预处理

预训练

微调

评估

对齐

部署与运维

具体而言,大模型研发可分为七个核心阶段,每个阶段的数据集均承担明确且不可替代的功能,且阶段间存在严格的依赖关系:上游数据的质量缺陷无法通过下游算法优化弥补,下游数据的反馈则会反向驱动上游数据的迭代。各阶段的核心数据功能与目标如下:

  • 数据收集:构建覆盖目标场景的原始语料库,核心目标是为模型提供 “能力原料”—— 通用模型追求覆盖全领域的海量语料,垂直模型则需要精准匹配业务场景的专业数据;

  • 预处理:通过清洗、去重、标准化等操作将原始数据转化为模型可直接读取的格式,核心目标是 “提升数据纯净度”,降低模型训练中的噪声干扰;

  • 训练(预训练) :在海量无标注数据上学习通用语言表征或领域基础知识,核心目标是为模型注入 “基础能力”—— 通用模型构建跨领域知识图谱,垂直模型则建立领域术语体系;

  • 微调:在小批量任务标注数据上调整模型参数,核心目标是 “适配具体任务”,让模型从 “能理解语言” 转向 “能完成特定场景的工作”;

  • 评估:在独立基准数据集上验证模型能力边界,核心目标是 “量化能力缺口”,为后续迭代提供可落地的优化方向;

  • 对齐:通过人类反馈或奖励模型引导模型输出符合人类价值观与场景规范的结果,核心目标是 “实现人机协同”,解决模型 “能力强但不听话” 的问题;

  • 部署与运维:通过生产环境的用户交互数据持续迭代模型,核心目标是 “适配真实场景”,让模型在动态变化的业务需求中持续优化。

1.2 数据集在大模型研发中的核心价值

数据是大模型的 “燃料”,其质量直接决定了模型的性能上限 ——2025 年智源社区的研究显示,在参数规模相同的前提下,高质量数据集训练的模型在专业任务上的准确率比低质量数据集高 30% 以上(6)。这种价值不仅体现在预训练阶段,更贯穿于全流程的每个环节:

数据集价值流转图:

预训练数据
广度决定知识边界

微调数据
精度决定任务适配

对齐数据
温度决定交互友好

部署数据
实时性决定持续优化

100+语言
50+行业

精标数据
场景匹配

人类反馈
专家校验

用户交互
实时监控

  • 预训练阶段,数据的 “广度” 决定模型的知识覆盖边界 —— 通用模型需要覆盖 100 + 语言、50 + 行业的语料,才能具备跨领域泛化能力;垂直模型则需要覆盖领域内的核心场景,才能建立专业知识体系;

  • 微调阶段,数据的 “精度” 决定模型的任务适配能力 —— 精标数据的场景匹配度每提升 10%,模型在目标任务上的准确率可提升 8% 左右(根据 2025 年《大模型训练数据白皮书》);

  • 对齐阶段,数据的 “温度” 决定模型的交互友好性 —— 人类反馈数据的质量直接影响模型对用户意图的理解精度,专业场景的对齐数据甚至需要领域专家的多轮校验。


第二章 数据收集阶段:构建高质量语料库

数据收集是大模型研发的起点,其核心逻辑是 “模型能力的边界,永远无法超越训练数据的覆盖边界”—— 只有先构建覆盖目标场景的高质量语料库,后续的训练、微调等环节才有意义。2025-2026 年,数据收集的核心趋势已从 “规模竞赛” 转向 “精准适配”:通用模型强调多模态、多语种的广度覆盖,垂直模型则强调领域知识的深度渗透与合规性保障。

2.1 通用大模型的数据收集策略

通用大模型的核心目标是构建跨领域的泛化能力,因此其数据收集遵循 “广度优先” 的原则 —— 语料需覆盖尽可能多的语言、领域与模态,以捕捉人类知识的全貌。从数据规模来看,主流通用大模型的预训练语料均达到万亿级 token:DeepSeek V3 等基座模型的训练数据量超过 10 万亿 token(127),而 GPT-5 的真实训练数据总量更是突破 200 万亿 token,覆盖 100 余种语言的学术论文、社交媒体对话、古籍文献甚至近 10 年的全球主流媒体报道(85)

通用大模型数据来源构成图:

80% 15% 5% 通用大模型数据来源占比 公开网页数据 授权合作数据 人工/用户贡献数据

从数据来源结构来看,通用大模型的语料库通常由三类数据构成,各来源的占比与功能存在明确分工,且需要通过严格的配比平衡来避免模型能力倾斜:

  • 公开网页数据:是通用语料的核心来源,占比通常超过 80%—— 例如 Common Crawl 贡献了 GPT 类模型超过 80% 的原始 token,这类数据的优势是覆盖范围极广,但缺点是噪声率较高(通常在 30% 以上),需要后续预处理环节进行严格清洗(104)

  • 授权合作数据:用于补充公开数据的缺口,包括与哈佛大学、波士顿公共图书馆等机构合作的古籍扫描页(约 394 百万页,对应 242B token)、学术数据库的授权论文等,这类数据的优势是权威性高,能提升模型在专业领域的事实性准确率(104)

  • 人工 / 用户贡献数据:占比通常在 5%-10% 之间,包括用户主动授权的交互数据、人工标注的高质量样本等,这类数据的优势是能精准匹配人类需求,提升模型的指令遵循能力(47)

2.2 垂直领域大模型的数据收集策略

垂直领域大模型的核心目标是在特定场景下提供高精度的专业服务,因此其数据收集遵循 “深度优先” 的原则 —— 语料需聚焦领域内的核心场景,且必须满足合规性要求。从数据规模来看,垂直模型的语料量通常仅为通用模型的千分之一甚至万分之一,但知识密度与场景匹配度要求极高:例如金融领域的语料需覆盖证监会政策文件、上市公司年报、金融时报报道等专业内容,医疗领域的语料需覆盖三甲医院脱敏病历、卫健委诊疗规范、医学期刊论文等权威来源。

垂直领域大模型数据来源构成图:

65% 25% 10% 垂直领域大模型数据来源占比 行业权威数据源 企业内部业务数据 公开领域数据集

从数据来源来看,垂直模型的语料库通常由三类数据构成,且各来源的优先级与通用模型存在本质差异:

  • 行业权威数据源:是垂直语料的核心来源,占比通常超过 60%—— 例如医疗领域的 PubMed 论文、卫健委诊疗规范,金融领域的证监会政策文件、上市公司年报摘要,法律领域的最高法裁判文书、法律法规数据库等,这类数据的优势是权威性高,能为模型提供可靠的专业知识基础;

  • 企业内部业务数据:占比通常在 20%-30% 之间,包括企业的客户咨询记录、内部流程文档、业务报表等,这类数据的优势是场景匹配度极高,能让模型快速适配企业的实际业务需求,但需要经过严格的脱敏处理(27)

  • 公开领域数据集:占比通常在 10% 以下,作为前两类数据的补充 —— 例如医疗领域的 PhysioNet 生理信号数据库、法律领域的 CAIL 法研杯数据集,这类数据的优势是可快速获取,能降低模型的初始训练成本(17)

2.3 数据收集的关键挑战与趋势

2025-2026 年,数据收集的核心挑战已从 “获取规模” 转向 “平衡质量、合规与成本”,具体体现在三个方面:

垂直领域数据合规性流程图:

医疗病历

法律文书

金融数据

通过

未通过

原始业务数据

数据类型识别

脱敏处理
去除PII信息

权限审查
公开可授权

加密处理
不可逆加密

合规性检查

高质量合规数据

重新处理/剔除

  • 合规风险:随着《数据安全法》《个人信息保护法》等法规的落地,数据收集的合规要求日益严格 —— 医疗领域需确保病历数据脱敏率 100%(去除患者姓名、身份证号、住院号等所有可识别信息),法律领域需确保数据来源为公开可授权的裁判文书,金融领域需对客户数据进行不可逆的加密处理(27)。某三甲医院的医疗模型项目显示,仅数据脱敏环节的成本就占数据工程总投入的 35%;

  • 数据质量:公开数据的 “内容稠密性缺失” 问题日益严重 ——2025 年信通院的评估显示,当前公开数据中,无意义内容(如重复的网页广告、自动生成的垃圾文本)占比高达 82.5%,远高于 2023 年的 57%,这导致数据清洗的成本大幅上升(100)

  • 成本控制:高质量垂直数据的获取成本极高 —— 根据 2025 年《大模型训练数据白皮书》,医疗领域的专家标注数据成本约为每条 5-10 元,法律领域的判例标注数据成本约为每条 10-15 元,远高于通用数据的每条 0.1-0.5 元。

为应对这些挑战,行业已形成三大核心趋势:

  • 合规化采集:从 “爬取公开数据” 转向 “API 接口调用 + 第三方合规采购”—— 例如金融领域的模型普遍采用证监会官网的公开 API 获取政策文件,医疗领域的模型则通过与三甲医院合作获取脱敏数据,这种方式的合规性更高,但获取成本也比爬取高 2-3 倍;

  • 知识图谱增强:通过知识图谱对原始数据进行结构化标注,提升数据的知识密度 —— 例如法律领域的模型会将裁判文书与法律条文、类案进行关联标注,金融领域的模型会将年报数据与行业指标进行关联标注,这种方式可将数据的知识密度提升 40% 以上(113)

  • 人机协同采集:通过大模型辅助数据采集与筛选,降低人工成本 —— 例如某法律模型项目通过大模型初筛裁判文书,将有效数据的筛选效率提升了 10 倍,人工标注成本降低了 60%(29)


第三章 数据预处理阶段:从原始语料到训练数据

预处理是数据工程的核心环节,其本质是 “提升数据的纯净度与适配性”—— 将杂乱无章的原始数据,转化为符合模型训练要求的标准化格式。2025-2026 年,预处理的核心趋势是 “自动化与定制化的深度结合”:通用模型依赖自动化工具处理海量数据,垂直模型则需要针对领域特性进行定制化清洗,以保留专业知识的完整性。

3.1 预处理的核心环节与通用流程

预处理的核心目标是 “提升数据质量” 与 “降低训练成本”——2025 年的行业共识是,预处理环节每多投入 10% 的资源,后续训练环节的算力成本可降低 20% 以上(60)。具体而言,预处理可分为四个核心环节,每个环节均有明确的质量标准与操作规范:

数据预处理流程图:

SimHash/MinHash

过滤噪声/敏感信息

JSON/XML/PDF→UTF-8

多维度评分

原始数据

去重

去重后数据

清洗

清洗后数据

格式统一

标准化数据

质量分级

高质量训练数据

  • 去重:删除完全重复或高度相似的内容,核心目标是避免模型重复学习相同信息,浪费算力资源。通用模型通常采用 SimHash 或 MinHash 算法,这类算法能在万亿级数据中快速识别重复内容,去重准确率可达 99% 以上;垂直模型则会额外加入领域专属的去重规则 —— 例如医疗领域会对病历中的重复诊断内容进行合并,法律领域会对同类裁判文书进行聚类去重(30);

  • 清洗:过滤低质量内容(如乱码、无意义字符、广告弹窗)、敏感信息(如 PII 个人可识别信息)与违规内容,核心目标是降低数据噪声。通用模型的清洗标准是 “噪声率≤3%”,垂直模型则有更严格的要求 —— 例如医疗领域需确保敏感信息脱敏率 100%,法律领域需过滤掉涉及隐私的裁判文书;

  • 格式统一:将不同来源、不同格式的数据(如 JSON、XML、PDF、纯文本)统一为模型可读取的格式(如 UTF-8 编码的文本、特定结构的 JSONL),核心目标是提升数据的适配性。通用模型的格式统一率要求为 100%,垂直模型则会加入领域专属的格式约束 —— 例如医疗领域需将 DICOM 格式的影像报告转化为结构化文本,金融领域需将 PDF 格式的年报转化为表格化数据(71)

  • 质量分级:对数据进行质量评分,筛选出高价值样本,核心目标是提升数据利用效率。通用模型通常采用多维度评分体系(如内容复杂度、领域相关性、语言规范性),垂直模型则会加入领域专家的人工校验 —— 例如医疗领域会由医生对病历数据的专业准确性进行评分,法律领域会由律师对裁判文书的逻辑严谨性进行评分(6)

3.2 不同场景下的预处理差异

通用模型与垂直模型的预处理策略存在本质差异 —— 通用模型以 “效率优先”,垂直模型以 “精度优先”。这种差异的核心原因是,通用模型需要处理万亿级的海量数据,必须依赖自动化工具;而垂直模型需要保留领域专业知识的完整性,必须通过定制化规则避免专业信息的丢失。具体差异如下:

维度 通用大模型预处理 垂直领域大模型预处理
核心目标 处理海量数据,降低噪声率,提升训练效率 保留领域专业知识,满足合规要求,提升场景适配性
工具依赖 自动化工具链(如 Data-Juicer、Dedupe) 领域定制化工具(如医疗 ETL 清洗工具、法律条款提取工具)+ 专家校验
去重策略 全局去重(SimHash/MinHash 算法),去重率≥90% 领域专属去重(如医疗病历诊断内容合并、法律同类判例聚类),去重率≥85%
清洗规则 通用规则(如过滤乱码、敏感信息),噪声率≤3% 领域定制规则(如医疗保留专业术语缩写、法律过滤隐私内容),噪声率≤1%
质量评估 自动化评分(如内容复杂度、领域相关性) 专家人工校验(如医疗医生评分、法律律师评分),准确率要求≥95%

这种差异的实际效果非常显著:某医疗模型项目显示,采用定制化预处理策略后,模型在病历解析任务中的准确率比采用通用预处理策略提升了 22%(71)

3.3 预处理的技术演进

2025-2026 年,预处理技术的核心突破是 “大模型辅助的自动化预处理”—— 通过大模型自动识别、清洗与标注数据,实现 “数据处理的数据化”。这种技术的核心优势是,既能提升预处理的效率,又能保留领域专业知识的完整性,具体体现在三个方面:

  • 自动化清洗:通过大模型识别低质量内容与敏感信息,清洗效率比传统规则提升了 10 倍以上,且能识别传统规则无法覆盖的领域专属噪声 —— 例如医疗领域的大模型能自动识别病历中的无效诊断内容,法律领域的大模型能自动识别裁判文书中的隐私信息(29)

  • 智能标注:通过大模型对数据进行初步标注,再由人工进行校验,标注效率比纯人工提升了 5 倍以上 —— 例如某法律模型项目通过大模型初筛裁判文书的法律关系类型,人工仅需对初筛结果进行校验,标注成本降低了 60%(32)

  • 格式转换:通过大模型将非结构化数据(如 PDF、图片)转化为结构化数据,准确率比传统 OCR 工具提升了 15% 以上 —— 例如医疗领域的大模型能将 DICOM 格式的影像报告转化为结构化的诊断文本,金融领域的大模型能将 PDF 格式的年报转化为表格化的财务数据(71)


第四章 训练阶段:预训练与持续预训练

训练阶段(主要指预训练与持续预训练)是大模型构建基础能力的核心环节 —— 模型的 “知识储备” 与 “基础理解能力”,本质上是在这个阶段通过对海量数据的学习形成的。2025-2026 年,训练阶段的核心趋势是 “架构驱动的数据集分化”:不同架构的模型对数据集的格式、规模、分布要求存在本质差异,且垂直模型的持续预训练已成为行业标配。

4.1 预训练数据的特征与规模

预训练的核心目标是让模型学习 “语言规律” 与 “世界知识”—— 通用模型学习跨领域的通用规律,垂直模型则学习领域内的专业规律。从数据规模来看,2025-2026 年主流大模型的预训练数据量均达到万亿级 token,且呈现出 “模型规模越大,数据量需求越高” 的趋势:

模型类型 数据规模(Token) 核心数据来源
GPT-5 200 万亿 + 公开网页、授权古籍、学术论文、社交媒体对话、代码仓库
Qwen3.5-397B 12 万亿 + 多语言网页、学术论文、代码仓库、多模态数据
DeepSeek V3 10 万亿 + 多语言网页、代码仓库、学术论文
医疗垂直模型(如某三甲医院模型) 0.2-1 万亿 脱敏病历、诊疗规范、医学期刊论文
法律垂直模型(如法研万法) 0.5-2 万亿 法律法规、裁判文书、法学专著

从数据类型来看,预训练数据已从 “纯文本” 转向 “多模态混合”——2025 年信通院的调研显示,超过 70% 的主流大模型在预训练阶段加入了图像、音频或视频数据,以提升模型的跨模态理解能力。例如,Qwen3.5-397B 的预训练数据中,多模态数据占比达到 15%,涵盖了文本、图像、音频等多种类型。

4.2 通用大模型的训练数据

通用大模型的预训练数据遵循 “多样性与规模并重” 的原则 —— 只有覆盖足够多的领域与模态,才能构建跨领域的泛化能力。具体而言,通用预训练数据通常由四类数据构成,各类型的占比与功能存在明确分工:

  • 文本数据:占比通常在 70%-80% 之间,包括网页、书籍、论文、新闻等,是模型学习语言规律的核心来源;

  • 代码数据:占比通常在 10%-15% 之间,包括 GitHub 上的开源代码、技术文档等,用于提升模型的逻辑推理与代码生成能力 —— 例如 Qwen3.5-397B 的代码数据占比达到 15%,支持 92 种以上的编程语言(57)

  • 多模态数据:占比通常在 5%-10% 之间,包括图像、音频、视频等,用于提升模型的跨模态理解能力 —— 例如 GPT-5 的多模态数据占比达到 10%,能处理文本、图像、视频等多种输入;

  • 合成数据:占比通常在 5%-10% 之间,由大模型生成,用于补充真实数据的缺口 —— 例如 GPT-5 的合成数据占比达到 10%,主要用于补充低资源语言的训练数据(85)

4.3 垂直领域大模型的训练数据

垂直领域大模型的预训练数据遵循 “专业性与场景化并重” 的原则 —— 只有聚焦领域内的核心场景,才能构建专业的知识体系。具体而言,垂直预训练数据通常由三类数据构成,各类型的占比与功能存在明确分工:

  • 领域权威文本:占比通常在 60%-70% 之间,包括行业规范、学术论文、专业书籍等,是模型学习领域知识的核心来源 —— 例如医疗领域的诊疗规范、医学期刊论文,法律领域的法律法规、法学专著;

  • 结构化业务数据:占比通常在 20%-30% 之间,包括企业的业务文档、流程规范、客户数据等,用于提升模型的场景适配能力 —— 例如医疗领域的电子病历、影像报告,金融领域的上市公司年报、风控规则(27)

  • 标注样本数据:占比通常在 10% 以下,由领域专家标注,用于提升模型的专业准确性 —— 例如医疗领域的医生标注病历,法律领域的律师标注裁判文书(32)

此外,垂直模型通常会采用 “通用基座 + 领域持续预训练” 的策略:先在通用大模型的基础上,用领域数据进行持续预训练,注入领域知识;再通过微调与对齐,适配具体业务场景。这种策略的优势是,能在降低训练成本的同时,提升模型的专业能力 —— 某法律模型项目显示,采用这种策略后,模型在判例分析任务中的准确率比从零训练提升了 35%(90)

4.4 不同架构模型的训练数据差异

不同架构的模型对训练数据的要求存在本质差异 —— 这种差异的核心原因是,不同架构的设计目标不同:Decoder-only 架构追求 “生成效率”,Encoder-Decoder 架构追求 “理解精度”,MoE 架构追求 “多任务适配能力”。

三种主流架构数据处理对比图:

MoE架构

混合格式数据

门控网络路由

专家模块1/2/3...

多任务适配

Encoder-Decoder架构

源文本-目标文本对

双向+单向注意力

序列到序列Seq2Seq

精准翻译/摘要

Decoder-only架构

纯文本序列

单向注意力机制

因果语言建模CLM

高效生成

具体差异如下:

架构类型 核心设计目标 数据输入格式 数据类型偏好 数据处理逻辑
Decoder-only(如 GPT 系列、LLaMA 系列) 高效生成自然语言文本 纯文本序列(因果语言建模 CLM) 纯文本数据(如网页、书籍、代码) 单向注意力机制,仅关注已生成的内容,数据无需严格配对,适配大规模预训练
Encoder-Decoder(如 T5、BART) 精准完成序列到序列任务(如翻译、摘要) 源文本 - 目标文本对(序列到序列建模 Seq2Seq) 成对文本数据(如翻译语料、摘要语料) 双向注意力机制(Encoder)+ 单向注意力机制(Decoder),数据需严格配对,适配小批量微调
MoE(如 GLaM、Qwen3-Coder-Next) 高效处理多任务,平衡性能与成本 混合格式(按任务类型划分) 分任务类型的数据(如数学推理、代码生成、多语言文本) 门控网络将数据分配给对应专家模块,每个专家模块仅处理特定类型的数据,适配大规模多任务训练

这种差异的实际效果非常显著:例如,MoE 架构的 Qwen3-Coder-Next 在代码生成任务中的准确率比 Decoder-only 架构的 LLaMA3 高 12%,而 Encoder-Decoder 架构的 T5 在摘要任务中的准确率比 Decoder-only 架构的 GPT-4 高 8%(33)


第五章 微调阶段:适配下游任务

微调是连接 “通用模型能力” 与 “场景化应用” 的桥梁 —— 通过在小批量任务标注数据上调整模型参数,让模型从 “能理解语言” 转向 “能完成特定场景的工作”。2025-2026 年,微调的核心趋势是 “小样本与高效化”:随着参数高效微调技术的普及,小参数模型仅需数千条精标数据,即可达到大参数模型在通用微调中的效果。

5.1 微调的类型与数据集特征

微调的核心目标是 “适配具体任务”,根据目标的不同,可分为三类:指令微调、任务特定微调与参数高效微调。

三种微调类型对比图:

参数高效微调PEFT

小批量精标数据

数百-数千条

LoRA/Adapter等技术

降低训练成本

任务特定微调

领域专家标注数据

数千-数万条

提升特定任务准确率

指令微调SFT

指令-输入-输出三元组

数万-数十万条

提升指令遵循能力

不同类型的微调,对数据集的要求存在本质差异:

  • 指令微调:核心目标是提升模型的指令遵循能力,让模型能理解并执行用户的自然语言指令。数据集通常由 “指令 - 输入 - 输出” 三元组构成,规模通常在数万到数十万条之间 —— 例如 Qwen2.5 的 SFT-Dataset 包含 50k 训练样本与 1k 测试样本,覆盖了通用对话、代码生成、数学推理等多种任务(19)

  • 任务特定微调:核心目标是提升模型在特定任务上的准确率,例如医疗病历解析、法律判例分析、金融风控预测等。数据集通常由领域专家标注,规模通常在数千到数万条之间 —— 例如某医疗模型的病历解析数据集包含 30 万条标注样本,覆盖了主诉、诊断、用药等 12 个关键信息字段(69)

  • 参数高效微调:核心目标是在不冻结全部模型参数的前提下,仅调整部分参数(如 Adapter、LoRA),降低训练成本。数据集通常是小批量的精标数据,规模通常在数百到数千条之间 —— 例如某法律模型采用 LoRA 技术,仅用 1000 条标注样本,就将模型在判例分析任务中的准确率提升了 20%(53)

5.2 通用大模型的微调数据

通用大模型的微调数据遵循 “多样性与覆盖度并重” 的原则 —— 只有覆盖足够多的任务类型,才能提升模型的跨任务泛化能力。具体而言,通用微调数据通常由三类数据构成:

  • 公开指令数据集:如 SFT-Dataset、ShareGPT 等,这类数据集的优势是覆盖范围广,能快速提升模型的通用指令遵循能力;

  • 人工标注数据:由专业标注团队标注,这类数据集的优势是质量高,能提升模型在复杂任务上的准确率;

  • 合成数据:由大模型生成,这类数据集的优势是成本低,能快速补充数据缺口 —— 例如 GPT-5 的微调数据中,合成数据占比达到 30%(85)

5.3 垂直领域大模型的微调数据

垂直领域大模型的微调数据遵循 “专业性与场景化并重” 的原则 —— 只有聚焦领域内的核心任务,才能提升模型的专业能力。具体而言,垂直微调数据通常由三类数据构成:

  • 领域专属任务数据:如医疗的病历解析数据、法律的判例分析数据、金融的年报摘要数据,这类数据的优势是场景匹配度高,能快速提升模型在目标任务上的准确率(69)

  • 专家标注数据:由领域专家标注,这类数据的优势是质量高,能提升模型的专业准确性 —— 例如某法律模型的判例分析数据集包含 15959 个 “问题 - 思考 - 答案” 三元组,全部由律师标注,能模拟法律专业人士的思考过程(117)

  • 知识图谱增强数据:通过知识图谱对数据进行结构化标注,这类数据的优势是能提升模型的知识检索能力 —— 例如某金融模型的风控预测数据集,将年报数据与行业知识图谱进行关联标注,能让模型快速获取相关的行业指标(113)

5.4 不同规模模型的微调数据差异

不同规模的模型,对微调数据的要求存在显著差异 —— 这种差异的核心原因是,不同规模的模型,数据利用效率不同:小参数模型的参数数量少,数据利用效率高,需要的微调数据量少;大参数模型的参数数量多,数据利用效率低,需要的微调数据量多。

不同规模模型微调数据需求对比图:

数百-数千条

数千-数万条

数万-数十万条

小参数模型
7B及以下

高价值精标数据
边缘/端侧部署

中参数模型
13B-70B

混合精标+通用数据
企业级应用

大参数模型
175B+

大规模通用+少量精标
通用基座

具体差异如下:

模型规模 微调数据规模 数据类型偏好 核心目标
小参数模型(7B 及以下) 数百至数千条精标样本 高价值精标数据(如领域专家标注样本) 适配边缘 / 端侧部署,快速实现场景落地
中参数模型(13B-70B) 数千至数万条标注样本 混合精标数据与通用数据 平衡性能与成本,满足企业级场景需求
大参数模型(175B 及以上) 数万至数十万条标注样本 大规模通用数据 + 少量精标数据 提升跨任务泛化能力,构建通用基座模型

这种差异的实际效果非常显著:例如,小参数模型(如 Qwen2.5-7B)仅需 1000 条精标数据,即可在特定任务上达到 90% 以上的准确率;而大参数模型(如 GPT-5)则需要 10 万条以上的标注数据,才能达到相同的准确率(56)


第六章 评估阶段:验证模型性能与安全性

评估是大模型研发的 “质量检测环节”—— 通过在独立基准数据集上验证模型的能力边界,为后续迭代提供可落地的优化方向。2025-2026 年,评估的核心趋势是 “领域化与自动化”:通用基准已无法满足垂直场景的需求,行业正在构建针对医疗、法律、金融等领域的专属评估基准,且评估过程正逐步实现自动化。

6.1 评估的维度与数据集类型

评估的核心目标是 “量化模型能力”,根据维度的不同,可分为三类:通用能力评估、专业能力评估与安全性评估。

三种评估维度对比图:

安全性评估

HH-RLHF/XSTest

隐私保护/伦理规范

对抗样本/有害请求

合规性与鲁棒性

专业能力评估

IPPM/PLAWBENCH

医疗诊断/法律推理

金融风控/行业规范

领域专业能力

通用能力评估

MMLU Pro/GSM8K

知识问答/数学推理

代码生成/多模态

跨领域泛化能力

不同类型的评估,对数据集的要求存在本质差异:

  • 通用能力评估:核心目标是评估模型的跨领域泛化能力,涵盖知识问答、数学推理、代码生成、多模态理解等维度。数据集通常是公开的通用基准,如 MMLU Pro、GSM8K、HumanEval、AIME2025 等 —— 例如,AIME2025 是 2025 年推出的数学推理基准,难度比传统的 GSM8K 高 3 倍,能更准确地评估模型的深度推理能力(7)

  • 专业能力评估:核心目标是评估模型在特定领域的专业能力,涵盖医疗诊断、法律推理、金融风控等维度。数据集通常是领域专属的基准,如医疗的 IPPM、法律的 PLAWBENCH、金融的 FinMR 等 —— 例如,PLAWBENCH 是由阿里巴巴等机构联合构建的法律评测基准,包含 850 个问题,覆盖公共法律咨询、实际案例分析和法律文件生成三大任务类型(67)

  • 安全性评估:核心目标是评估模型的合规性与鲁棒性,涵盖隐私保护、伦理规范、对抗样本等维度。数据集通常是公开的安全基准,如 HH-RLHF、XSTest 等 —— 例如,HH-RLHF 是当前最主流的对齐评估基准,包含 10k + 的有害 / 有益样本,能评估模型对有害请求的识别能力(123)

6.2 通用大模型的评估数据

通用大模型的评估数据遵循 “全面性与权威性并重” 的原则 —— 只有覆盖足够多的能力维度,才能全面评估模型的泛化能力。具体而言,通用评估数据通常由三类数据构成:

  • 公开基准数据集:如 MMLU Pro、GSM8K、HumanEval、AIME2025 等,这类数据集的优势是权威性高,能实现不同模型之间的横向对比(7)

  • 多模态评估数据集:如 P-MMEval 等,这类数据集的优势是能评估模型的跨模态理解能力 —— 例如,P-MMEval 是由阿里云研发的多语言多模态评估基准,支持 100 + 语言的跨模态理解评估(8)

  • 企业内部测试数据集:由模型研发企业自行构建,这类数据集的优势是能评估模型的实际应用能力 —— 例如,OpenAI 的内部测试数据集包含 10 万 + 的真实用户请求,能评估模型在实际场景中的表现(103)

6.3 垂直领域大模型的评估数据

垂直领域大模型的评估数据遵循 “专业性与场景化并重” 的原则 —— 只有聚焦领域内的核心任务,才能准确评估模型的专业能力。具体而言,垂直评估数据通常由三类数据构成:

  • 领域专属基准数据集:如医疗的 IPPM、法律的 PLAWBENCH、金融的 FinMR 等,这类数据集的优势是场景匹配度高,能评估模型在目标任务上的准确率(67)

  • 行业标准测试数据集:如医疗的临床诊断测试集、法律的司法考试测试集、金融的风控预测测试集等,这类数据集的优势是能评估模型的行业合规性 —— 例如,某医疗模型的评估数据集包含 1 万 + 的临床诊断案例,全部由三甲医院的医生标注,能评估模型的诊断准确率(113)

  • 人工专家评估数据集:由领域专家标注,这类数据集的优势是能评估模型的专业准确性 —— 例如,某法律模型的评估数据集包含 1000 + 的判例分析案例,全部由律师标注,能评估模型的法律推理能力(32)

6.4 不同架构模型的评估数据差异

不同架构的模型,对评估数据的要求存在本质差异 —— 这种差异的核心原因是,不同架构的设计目标不同:Decoder-only 架构追求 “生成效率”,Encoder-Decoder 架构追求 “理解精度”,MoE 架构追求 “多任务适配能力”。具体差异如下:

架构类型 评估数据类型偏好 核心评估维度
Decoder-only 生成类任务数据(如对话生成、代码生成) 生成质量、连贯性、逻辑严谨性
Encoder-Decoder 序列到序列任务数据(如翻译、摘要) 准确率、召回率、BLEU/Rouge 得分
MoE 多任务混合数据(如数学推理 + 代码生成 + 多语言文本) 多任务适配能力、专家模块利用率、推理效率

这种差异的实际效果非常显著:例如,MoE 架构的 Qwen3-Coder-Next 在多任务评估中的平均准确率比 Decoder-only 架构的 LLaMA3 高 15%,而 Encoder-Decoder 架构的 T5 在序列到序列任务评估中的 BLEU 得分比 Decoder-only 架构的 GPT-4 高 10%(33)


第七章 对齐阶段:从人类反馈到价值观一致性

对齐是大模型从 “实验室工具” 转向 “生产级应用” 的关键环节 —— 通过人类反馈或奖励模型引导模型输出符合人类价值观与场景规范的结果,解决模型 “能力强但不听话” 的问题。2025-2026 年,对齐的核心趋势是 “精细化与领域化”:通用对齐已无法满足垂直场景的需求,行业正在构建针对医疗、法律、金融等领域的专属对齐数据集。

7.1 对齐的核心方法与数据集特征

对齐的核心目标是 “实现人机协同”,根据方法的不同,可分为三类:监督微调(SFT)、强化学习从人类反馈(RLHF)与直接偏好优化(DPO)。

三种对齐方法数据流对比图:

直接偏好优化DPO

prompt-偏好输出-非偏好输出

数千-数万条

无需奖励模型

强化学习RLHF

prompt-候选输出-偏好标签

数千-数万条

学习人类偏好

监督微调SFT

指令-输出对

数万-数十万条

学习指令遵循习惯

不同方法的数据集特征存在本质差异:

  • 监督微调(SFT) :核心目标是让模型学习人类的指令遵循习惯,数据集通常由 “指令 - 输出” 对构成,规模通常在数万到数十万条之间 —— 例如,某医疗模型的 SFT 数据集包含 30 万条医生标注的 “患者问题 - 医生回答” 对,能让模型学习医疗场景的对话规范(72)

  • 强化学习从人类反馈(RLHF) :核心目标是让模型学习人类的偏好,数据集通常由 “prompt - 候选输出 - 偏好标签” 构成,规模通常在数千到数万条之间 —— 例如,GPT-5 的 RLHF 数据集包含 10 万条用户标注的偏好样本,能让模型学习人类的对话偏好(52)

  • 直接偏好优化(DPO) :核心目标是在不训练奖励模型的情况下,直接优化模型的偏好,数据集通常由 “prompt - 偏好输出 - 非偏好输出” 对构成,规模通常在数千到数万条之间 —— 例如,某法律模型的 DPO 数据集包含 1 万条律师标注的偏好样本,能让模型学习法律场景的合规偏好(66)

7.2 通用大模型的对齐数据

通用大模型的对齐数据遵循 “多样性与普适性并重” 的原则 —— 只有覆盖足够多的价值观场景,才能让模型适配不同用户的需求。具体而言,通用对齐数据通常由三类数据构成:

  • 人工标注偏好数据:由专业标注团队标注,这类数据的优势是质量高,能让模型学习人类的通用偏好 —— 例如,Anthropic 的 Claude 系列模型的对齐数据包含 10 万条人工标注的偏好样本(47)

  • 合成偏好数据:由大模型生成,这类数据的优势是成本低,能快速补充数据缺口 —— 例如,GPT-5 的对齐数据中,合成数据占比达到 40%(85)

  • 安全基准数据集:如 HH-RLHF、XSTest 等,这类数据集的优势是能评估模型的安全对齐能力 —— 例如,HH-RLHF 包含 10k + 的有害 / 有益样本,能评估模型对有害请求的识别能力(123)

7.3 垂直领域大模型的对齐数据

垂直领域大模型的对齐数据遵循 “专业性与合规性并重” 的原则 —— 只有聚焦领域内的合规要求,才能让模型满足行业的监管要求。具体而言,垂直对齐数据通常由三类数据构成:

  • 领域合规标注数据:由领域专家标注,这类数据的优势是能让模型学习行业的合规规范 —— 例如,医疗领域的 “患者隐私保护” 样本、法律领域的 “合规性审查” 样本、金融领域的 “风险提示” 样本(113)

  • 专家反馈数据:由领域专家提供的反馈意见构成,这类数据的优势是能让模型学习专业人士的判断标准 —— 例如,某医疗模型的对齐数据包含 1 万条医生的反馈意见,能让模型学习临床诊断的规范(67)

  • 行业规范数据集:如医疗的《诊疗规范》、法律的《法律法规》、金融的《风控规则》等,这类数据集的优势是能让模型学习行业的标准规范 —— 例如,某法律模型的对齐数据包含 95 万条中国现行有效的法律法规,能让模型学习法律的合规要求(115)

7.4 不同架构模型的对齐数据差异

不同架构的模型,对对齐数据的要求存在本质差异 —— 这种差异的核心原因是,不同架构的设计目标不同:Decoder-only 架构追求 “生成效率”,Encoder-Decoder 架构追求 “理解精度”,MoE 架构追求 “多任务适配能力”。具体差异如下:

架构类型 对齐数据类型偏好 核心对齐策略
Decoder-only 对话 / 交互类偏好数据 RLHF 为主,DPO 为辅,核心目标是提升对话的自然度与合规性
Encoder-Decoder 序列到序列任务偏好数据 SFT 为主,RLHF 为辅,核心目标是提升任务的准确率与合规性
MoE 分任务类型的偏好数据 专家模块单独对齐 + 全局对齐,核心目标是提升多任务的适配能力与合规性

这种差异的实际效果非常显著:例如,MoE 架构的 ChartMoE 在多模态对齐任务中的准确率比 Decoder-only 架构的 LLaMA3 高 20%,而 Encoder-Decoder 架构的 T5 在序列到序列任务对齐中的准确率比 Decoder-only 架构的 GPT-4 高 15%(74)


第八章 部署与运维阶段:数据的闭环迭代

部署与运维是大模型研发的 “最后一公里”—— 通过生产环境的用户交互数据持续迭代模型,让模型在动态变化的业务需求中持续优化。2025-2026 年,部署阶段的核心趋势是 “实时化与自动化”:模型的迭代周期从 “月级” 缩短到 “周级” 甚至 “日级”,且迭代过程正逐步实现自动化。

8.1 部署阶段的数据集类型

部署阶段的核心目标是 “适配真实场景”,根据数据的来源与功能,可分为三类:实时监控数据集、用户反馈数据集与领域专属验证数据集。不同类型的数据集,对模型迭代的作用存在本质差异:

  • 实时监控数据集:核心目标是实时捕捉模型的输出质量,数据集通常由模型的实时输出构成,覆盖错误案例、低置信度输出、合规风险输出等维度 —— 例如,某医疗模型的实时监控数据集包含 1 万 + 的错误诊断案例,能实时识别模型的输出风险(71)

  • 用户反馈数据集:核心目标是捕捉用户的真实需求,数据集通常由用户的评分、评论、修正建议等构成 —— 例如,某法律模型的用户反馈数据集包含 10 万 + 的用户评分,能捕捉用户对模型输出的满意度(71)

  • 领域专属验证数据集:核心目标是验证模型的专业准确性,数据集通常由领域专家标注,覆盖临床诊断、判例分析、风控预测等核心任务 —— 例如,某金融模型的领域专属验证数据集包含 1 万 + 的风控预测案例,能验证模型的预测准确率(113)

8.2 数据闭环的实现逻辑

部署阶段的核心价值是 “数据闭环”—— 将生产环境的用户反馈数据,反向驱动模型的迭代优化。

数据闭环迭代流程图:

达标

未达标

生产环境部署

数据采集
日志系统

数据清洗
去重/标注

模型迭代
微调/对齐

效果验证
专属验证集

用户反馈数据

实时监控数据

具体而言,数据闭环的实现逻辑可分为四个环节:

  • 数据采集:通过生产环境的日志系统,采集模型的实时输出与用户反馈数据;

  • 数据清洗:对采集到的数据进行清洗、去重、标注,转化为模型可读取的格式;

  • 模型迭代:用清洗后的数据集,对模型进行微调或对齐,优化模型的输出质量;

  • 效果验证:用领域专属验证数据集,验证模型的迭代效果,确保迭代后的模型符合要求。

这种数据闭环的优势是,能让模型在动态变化的业务需求中持续优化 —— 某医疗模型项目显示,通过数据闭环,模型的诊断准确率每月提升 5%,上线 6 个月后,准确率从 85% 提升到 92%(27)

8.3 不同场景下的部署数据差异

通用模型与垂直模型的部署数据策略存在本质差异 —— 通用模型以 “用户反馈驱动”,垂直模型以 “专家验证驱动”。这种差异的核心原因是,通用模型的用户群体广泛,需求多样,需要通过用户反馈快速适配不同需求;而垂直模型的用户群体专业,需求精准,需要通过专家验证确保专业准确性。

部署场景数据流对比图:

垂直模型部署

万级专业用户

专家审核反馈

月级迭代

确保专业准确性

通用模型部署

百万级用户交互

自动采集日志

周级迭代

快速适配新需求

具体差异如下:

场景类型 核心数据来源 数据规模 迭代周期
通用大模型 用户交互日志、搜索记录、对话历史 百万级 / 日 周级
医疗垂直模型 临床医生反馈、病历修正记录、诊断错误案例 万级 / 日 月级(需专家审核)
法律垂直模型 律师反馈、判例修正记录、合规性审查案例 万级 / 日 月级(需专家审核)
金融垂直模型 风控专家反馈、年报修正记录、预测错误案例 万级 / 日 月级(需专家审核)

这种差异的实际效果非常显著:例如,通用模型的迭代周期通常为 1 周,能快速适配用户的新需求;而垂直模型的迭代周期通常为 1 个月,能确保模型的专业准确性与合规性(71)


第九章 不同规模大模型的数据集差异分析

模型规模是影响数据集策略的核心因素 —— 不同规模的模型,数据利用效率、训练目标与场景需求存在显著差异。2025-2026 年,模型规模的核心趋势是 “小参数模型的崛起”:随着参数高效微调技术的普及,小参数模型的场景适配能力已接近大参数模型,且部署成本仅为大参数模型的 1/100。

9.1 小参数模型(7B 及以下)

小参数模型的核心目标是 “边缘 / 端侧部署”—— 满足手机、IoT 设备、边缘服务器等资源受限场景的需求。其数据集策略的核心是 “小而精”:

  • 数据规模:预训练数据通常在千亿级 token 以内,微调数据通常在数百至数千条精标样本 —— 例如,某 7B 参数的医疗模型,预训练数据仅为 0.5 万亿 token,微调数据仅为 1000 条医生标注的病历样本(56)

  • 数据类型:高价值精标数据为主,通用数据为辅 —— 例如,某 7B 参数的法律模型,微调数据全部由律师标注的判例分析样本构成;

  • 数据效率:高,少量精标数据即可实现场景适配 —— 例如,某 7B 参数的金融模型,仅用 1000 条风控预测样本,就将模型的预测准确率提升了 20%(56)

9.2 中参数模型(13B-70B)

中参数模型的核心目标是 “企业级部署”—— 满足企业内部的业务场景需求,如客服、文档处理、代码生成等。其数据集策略的核心是 “平衡性能与成本”:

  • 数据规模:预训练数据通常在千亿到万亿级 token,微调数据通常在数千至数万条标注样本 —— 例如,Qwen2.5-72B 的预训练数据为 12 万亿 token,微调数据为 50k 样本(19)

  • 数据类型:混合精标数据与通用数据 —— 例如,某 70B 参数的企业级模型,微调数据包含 30% 的企业内部业务数据与 70% 的通用指令数据;

  • 数据效率:中,需要一定规模的标注数据才能实现场景适配 —— 例如,某 70B 参数的企业级模型,需要 10k 条标注样本,才能将模型的指令遵循准确率提升到 90% 以上(56)

9.3 大参数模型(175B 及以上)

大参数模型的核心目标是 “通用基座构建”—— 为小参数模型与中参数模型提供基础能力支撑。其数据集策略的核心是 “大而全”:

  • 数据规模:预训练数据通常在万亿级 token 以上,微调数据通常在数万至数十万条标注样本 —— 例如,GPT-5 的预训练数据为 200 万亿 token,微调数据为 10 万样本(85)

  • 数据类型:大规模通用数据为主,少量精标数据为辅 —— 例如,GPT-5 的预训练数据包含 70% 的公开网页数据、15% 的代码数据、10% 的多模态数据与 5% 的合成数据;

  • 数据效率:低,需要海量数据才能实现泛化能力 —— 例如,GPT-5 需要 200 万亿 token 的预训练数据,才能构建跨领域的泛化能力(85)


第十章 不同架构大模型的数据集差异分析

模型架构是影响数据集策略的本质因素 —— 不同架构的设计目标不同,对数据集的格式、规模、分布要求存在本质差异。2025-2026 年,架构的核心趋势是 “MoE 的普及”:MoE 架构的参数量可以达到万亿级,但训练成本仅为 Decoder-only 架构的 1/5,已成为大模型研发的主流方向。

三种主流架构特性对比图:

单向注意力

纯文本序列

双向+单向

成对文本

门控路由

专家模块

Decoder-only

高效生成

大规模预训练

Encoder-Decoder

精准翻译/摘要

小批量微调

MoE

多任务适配

低成本扩展

10.1 Decoder-only 架构

Decoder-only 架构的核心设计目标是 “高效生成自然语言文本”—— 例如,GPT 系列、LLaMA 系列模型均采用这种架构。其数据集策略的核心是 “纯文本、大规模、单向输入”:

  • 数据输入格式:纯文本序列,采用因果语言建模(CLM)任务,即模型根据已生成的文本,预测下一个 token;

  • 数据类型偏好:纯文本数据,如网页、书籍、代码等 —— 例如,GPT-5 的预训练数据中,纯文本数据占比达到 90%;

  • 数据处理逻辑:单向注意力机制,仅关注已生成的内容,数据无需严格配对,适配大规模预训练 —— 这种设计的优势是,训练效率高,能处理万亿级的海量数据;

  • 核心优势与局限:训练效率高,生成质量好,但对序列到序列任务的适配性较差 —— 例如,在翻译任务中,Decoder-only 架构的 BLEU 得分通常比 Encoder-Decoder 架构低 10% 左右(39)

10.2 Encoder-Decoder 架构

Encoder-Decoder 架构的核心设计目标是 “精准完成序列到序列任务”—— 例如,T5、BART 模型均采用这种架构。其数据集策略的核心是 “成对文本、小批量、双向输入”:

  • 数据输入格式:源文本 - 目标文本对,采用序列到序列建模(Seq2Seq)任务,即模型根据源文本,生成目标文本;

  • 数据类型偏好:成对文本数据,如翻译语料、摘要语料等 —— 例如,T5 的预训练数据中,成对文本数据占比达到 80%;

  • 数据处理逻辑:双向注意力机制(Encoder)+ 单向注意力机制(Decoder),数据需严格配对,适配小批量微调 —— 这种设计的优势是,序列到序列任务的准确率高;

  • 核心优势与局限:序列到序列任务的准确率高,但训练效率低,无法处理万亿级的海量数据 —— 例如,在预训练阶段,Encoder-Decoder 架构的训练效率通常比 Decoder-only 架构低 30% 左右(34)

10.3 MoE 架构

MoE 架构的核心设计目标是 “高效处理多任务,平衡性能与成本”—— 例如,GLaM、Qwen3-Coder-Next 模型均采用这种架构。

MoE架构数据路由示意图:

数学推理

代码生成

多语言

其他任务

输入数据

门控网络Router

专家模块1
数学专家

专家模块2
代码专家

专家模块3
语言专家

专家模块N
通用专家

输出整合

最终输出

其数据集策略的核心是 “分任务、大规模、门控分配”:

  • 数据输入格式:混合格式,按任务类型划分,采用门控语言建模(GLM)任务,即模型通过门控网络,将数据分配给对应专家模块;

  • 数据类型偏好:分任务类型的数据,如数学推理、代码生成、多语言文本等 —— 例如,Qwen3-Coder-Next 的预训练数据中,代码数据占比达到 15%,专门分配给代码专家模块;

  • 数据处理逻辑:门控网络将数据分配给对应专家模块,每个专家模块仅处理特定类型的数据,适配大规模多任务训练 —— 这种设计的优势是,能在不增加训练成本的前提下,提升模型的参数量与多任务适配能力;

  • 核心优势与局限:多任务适配能力强,训练成本低,但路由器设计复杂,容易出现 “专家负载不均衡” 的问题 —— 例如,在某些任务中,部分专家模块的利用率可能超过 90%,而其他专家模块的利用率可能低于 10%(33)


第十一章 总结与展望

11.1 核心结论

本报告基于 2025-2026 年大模型技术落地的行业实践与权威研究,得出以下核心结论:

大模型数据集全景对比图:

关键影响因素

模型规模
小/中/大参数

数据利用效率

架构类型
Decoder/MoE/Encoder

数据处理逻辑

垂直大模型

领域专属精标数据

深度优先

场景适配性

专家验证驱动

通用大模型

万亿级多源语料

广度优先

跨领域泛化

用户反馈驱动

  1. 全流程数据闭环已成为大模型研发的标配:数据已不再是单一的训练输入,而是贯穿于数据收集、预处理、训练、微调、评估、对齐、部署全流程的核心资产。上游数据的质量缺陷无法通过下游算法优化弥补,下游数据的反馈则会反向驱动上游数据的迭代 —— 某医疗模型项目显示,通过数据闭环,模型的诊断准确率每月提升 5%(27)

  2. 通用与垂直领域的数据集策略存在本质差异:通用大模型依赖万亿级多源语料构建基础能力,核心追求 “广度” 与 “泛化性”;垂直领域模型依赖领域专属精标数据构建专业能力,核心追求 “精度” 与 “场景适配性”。合规性已成为垂直数据集的核心门槛 —— 医疗领域需确保病历脱敏率 100%,法律领域需确保数据来源公开可授权(94)

  3. 模型规模与架构显著影响数据集策略:小参数模型追求 “小而精” 的精标数据,数据利用效率高;大参数模型追求 “大而全” 的通用数据,数据利用效率低。MoE 架构的 “专家专业化” 需求,推动了任务导向型数据集的爆发式增长 —— 其对齐阶段甚至需要为每个专家模块单独构建专属语料(74)

  4. 数据质量与合规性已成为大模型落地的核心瓶颈:2025 年信通院的评估显示,当前公开数据中,无意义内容占比高达 82.5%,领域相关性不足占比 14.04%,数据质量已成为制约模型能力提升的主要因素。同时,合规风险的成本极高 —— 某医疗模型项目的脱敏环节成本占数据工程总投入的 35%(100)

11.2 未来趋势

基于 2025-2026 年的行业实践与技术演进,大模型数据集的未来趋势可概括为以下四点:

  1. 数据质量优先于规模:行业将从 “数据规模竞赛” 转向 “数据质量竞赛”—— 通过大模型辅助的自动化标注、知识图谱增强、人机协同采集等技术,提升数据的知识密度与场景匹配度。2025 年的行业共识是,预处理环节每多投入 10% 的资源,后续训练环节的算力成本可降低 20% 以上(60)

  2. 垂直领域数据集的专业化程度将进一步提升:行业将针对医疗、法律、金融等领域,构建更细分的专属数据集 —— 例如,医疗领域的 “肿瘤诊断专属数据集”、法律领域的 “知识产权判例专属数据集”、金融领域的 “量化风控专属数据集”。这些数据集将由领域专家与技术团队联合构建,专业准确性将进一步提升(27)

  3. 合成数据与 RAG 的结合将成为主流:行业将通过大模型生成合成数据,补充真实数据的缺口;同时,通过检索增强生成(RAG)技术,将外部知识图谱与模型训练数据结合,提升模型的知识准确性与可追溯性。某法律模型项目显示,通过 RAG 技术,模型的判例分析准确率提升了 25%(113)

  4. 数据隐私与合规将成为核心竞争力:行业将采用联邦学习、差分隐私等技术,在保护数据隐私的前提下,实现模型的训练与迭代。合规性将成为大模型落地的核心门槛 —— 只有满足行业合规要求的模型,才能进入生产环境(27)

11.3 落地建议

基于以上结论与趋势,针对大模型研发团队,提出以下落地建议:

  1. 建立全流程数据治理体系:将数据治理贯穿于大模型研发的全流程,从数据收集到部署迭代,每个环节都设置明确的质量标准与合规要求。例如,在数据收集环节,设置合规性审查机制;在预处理环节,设置噪声率≤1% 的质量标准;在部署环节,设置数据闭环迭代机制(60)

  2. 针对垂直场景定制数据集策略:对于垂直领域模型,优先选择领域权威数据源,采用 “通用基座 + 领域持续预训练 + 专家标注微调” 的策略。例如,医疗模型可选择三甲医院脱敏病历、卫健委诊疗规范作为数据源,先进行领域持续预训练,再由医生标注微调数据(27)

  3. 根据模型规模与架构优化数据集:小参数模型优先采用精标数据,提升数据利用效率;大参数模型优先采用通用数据,提升泛化能力。MoE 架构需为每个专家模块单独构建专属数据集,提升专家模块的专业化程度。例如,Qwen3-Coder-Next 为代码专家模块单独构建了 GitHub 代码数据集(57)

  4. 加强数据隐私与合规保护:采用脱敏、差分隐私、联邦学习等技术,确保数据的合规性。例如,医疗模型需对病历数据进行全流程脱敏,去除患者所有可识别信息;法律模型需确保数据来源为公开可授权的裁判文书(27)

11.4 数据集关系总览

全流程数据关系图谱:

部署运维阶段

评估对齐阶段

微调阶段

训练阶段

预处理阶段

数据收集阶段

闭环迭代

公开网页数据

原始语料库

授权合作数据

人工贡献数据

去重

清洗

格式统一

质量分级

预训练数据
万亿级token

基础能力模型

指令微调数据

任务特定数据

适配任务模型

评估基准数据

对齐偏好数据

能力验证

价值观对齐

生产环境

用户反馈数据

该图谱展示了大模型研发全流程中各阶段数据集的流转关系与依赖关系,体现了数据闭环的核心价值。

参考资料

[1] 大模型研发全流程:从技术架构到商业落地的全景分析_ibm planing analytics-CSDN博客 https://blog.csdn.net/tianyamingyue1993/article/details/158210099

[2] The Top 10 LLM Training Datasets for 2026 https://opendatascience.com/the-top-10-llm-training-datasets-for-2026/

[3] 垂直 领域 开源 AI 模型 : 精准 赋 能 细分 行业 需求 # 垂直 领域 # 开源 AI 模型 # AI https://www.iesdouyin.com/share/video/7611805651454446848

[4] 中国信通院:2025年高质量数据集建设指引_模型_推理_应用 https://m.sohu.com/a/932921409_468661/

[5] 大模型数据集的深入认识和微调数据集的构建流程_如何构建大模型使用的数据集-CSDN博客 https://blog.csdn.net/yang2330648064/article/details/154084822

[6] A Data-Centric Perspective on the Lifecycle of Large Language Models https://www.techrxiv.org/users/998473/articles/1370970/master/file/data/data-ai-arxiv/data-ai-arxiv.pdf?inline=true

[7] 大模型评测基准榜单 | MMLU, MMLU Pro, GSM8K, HumanEval等主流大模型评测数据集 | 数据学习 (DataLearner) https://wap.datalearner.com/benchmarks

[8] Qwen开源P-MMEval全面评测大模型多语言能力指南-开发者社区-阿里云 https://developer.aliyun.com/article/1654398

[9] Qwen 三代进化全景对比:从 Qwen2.5 到 Qwen3 再到 Qwen3.5_qwen3 qwen2.5-CSDN博客 https://blog.csdn.net/m0_47999117/article/details/158609371

[10] llm-datasets/README.md at main · mlabonne/llm-datasets · GitHub https://github.com/mlabonne/llm-datasets/blob/main/README.md

[11] Hugging Face Datasets Guide https://www.cs.virginia.edu/~rmw7my/Courses/AgenticAISpring2026/datasets2025.html

[12] The Top 10 LLM Training Datasets for 2026 https://opendatascience.com/the-top-10-llm-training-datasets-for-2026/

[13] 全网最全整理>>>>>自然语言处理/文本类数据集资源——持续更新_nist中文官网-CSDN博客 https://blog.csdn.net/u012133341/article/details/159053916

[14] 大模型数据集全面整理: 444个数据集下载地址,出自LLM训练数据集调研经典论文《Datasets for Large Language Models: A C - 掘金 https://juejin.cn/post/7495705474500821028

[15] 大模型五大场景评估基准全解析:从医疗到Agentic的实战指南_agentic相关的评估基准-CSDN博客 https://blog.csdn.net/a2875254060/article/details/154429283

[16] [ 2504 ] 多 模态 金融 评估 数据 集 Fin MR 发布 , 评估 更 全面 arxiv : 2506 . 06282 Understanding Financial Reasoning in AI : A Multimodal Benchmark and Error Learning Approach

# 大模型 # AI # 人工 智能 # 金融 https://www.iesdouyin.com/share/video/7522510979872197930

[17] 开源医疗数据集全览:从文本到影像_中文医疗sft数据集-CSDN博客 https://blog.csdn.net/u012133341/article/details/155987971

[18] Awesome Domain LLM https://github.com/luban-agi/Awesome-Domain-LLM

[19] SFT-Dataset|文本生成数据集|模型微调数据集 https://www.selectdataset.com/dataset/ca773a04e05ac8087740b26c37faff77

[20] Awesome LLM Technical Reports (2025-01 ~ 2026-02) https://github.com/joe1chief/awesome-llm-tech-reports/blob/main/README.md

[21] Qwen2.5 Technical Report翻译-CSDN博客 https://blog.csdn.net/qq_28385535/article/details/147236812

[22] AI 模型 选择 : Chat GPT vs Gemini 别 再 看 总分 榜单 了 ! 深度 测评 2025 年 底 主流 模型 : Claude Opus 4 . 5 、 Gemini 3 Pro 、 GPT - 5 . 2 、 Llama 4 Scout 及 Deep Seek 。 揭秘 为什么 Gemini 看似 第一 实则 “ 爱 撒谎 ” ? 为什么 写 代码 必须 用 Claude https://www.iesdouyin.com/share/video/7595802570434678051

[23] 2026全球语言模型全景图:从GPT-5到Qwen3,谁才是你的AI编程最佳搭档?_截至20260312,各个模型最新版本-CSDN博客 https://blog.csdn.net/weixin_65106708/article/details/158651346

[24] 大模型LLM Qwen2.5全攻略:全链路体验、下载、推理、微调、部署实战,非常详细收藏这一篇!_qwen大模型 下载-CSDN博客 https://blog.csdn.net/2401_84495872/article/details/147798716

[25] 千问2.5模型部署与微调-人工智能平台 PAI(PAI)-阿里云帮助中心 https://help.aliyun.com/zh/pai/use-cases/finetune-and-deploy-qwen-72b-chat-model

[26] 爆肝整理!LLaMA 3垂直领域微调全攻略:从数据清洗到模型部署(附医疗_金融实战案例)_基于llama facitory的垂直行业大模型-CSDN博客 https://blog.csdn.net/weixin_40593051/article/details/147862610

[27] 训医疗大模型卡脖子?我们备了 3.25PB 三甲合规成品数据集|医疗|大模型|客户端节点|算法_手机网易网 http://m.163.com/dy/article/KQFS7NNV0552HS1H.html

[28] 医疗、金融、法律领域专属模型训练全记录(附代码)-CSDN博客 https://blog.csdn.net/weixin_35266799/article/details/155867260

[29] 第十 篇 : 大模型 微调 技术 体系 经过 预 训练 、 对齐 的 通用 大 模型 , 虽 具备 基础 的 语言 理解 与 生成 能力 , 但 在 垂直 行业 场景 ( 金融 、 医疗 、 法律 、 工业 ) 中 , 仍 面临 行业 知识 不足 、 任务 适配 性 差 、 输出 风格 不 匹配 等 问题 。 而 全 参数 微调 ( Full Fine - tuning ) 需要 冻结 所有 参数 https://www.iesdouyin.com/share/video/7606981675150609705

[30] 如何把DeepSeek训练成自己的垂直领域大模型_快乐喆宝 http://m.toutiao.com/group/7502807883302863375/

[31] 大模型的核心流程:预训练→微调→对齐→推理–企业级实战分析!_大模型预训练产品-CSDN博客 https://blog.csdn.net/m0_59235245/article/details/158621334

[32] 人工智能数据集建设全流程详解(之四)第四阶段:数据标注(决定微调与对齐效果) 本阶段核心目标是为数据添加标签、构建结构化 - 掘金 https://juejin.cn/post/7627854201213730826

[33] 大模型架构算力对比:Decoder-only、Encoder-Decoder、MoE深度解析.71-腾讯云开发者社区-腾讯云 https://developer.cloud.tencent.com/article/2651713

[34] Encoder-Decoder or Decoder-Only? Revisiting Encoder-Decoder Large Language Model https://arxiv.org/pdf/2510.26622

[35] Encoder-Decoder or Decoder-Only? Revisiting Encoder-Decoder Large Language Model - 智源社区论文 https://hub.baai.ac.cn/paper/a867dd75-5449-421a-96a9-c6919c3982dc

[36] Transformer模型推理阶段编解码器协同机制与GPT解码器-only架构解析 https://www.iesdouyin.com/share/video/7512336941325487411

[37] 【大模型基础_毛玉仁】2.5 基于 Decoder-only 架构的大语言模型 – GPT和LLaMa模型介绍_decoder-only gpt-CSDN博客 https://blog.csdn.net/weixin_48267104/article/details/146298900

[38] 【收藏级干货】大模型技术全解析:从架构原理到实战应用的程序员指南-CSDN博客 https://blog.csdn.net/youmaob/article/details/157171706

[39] 大模型三大架构详解:Decoder-Only、Encoder-Only 与 Encoder-Decoder-CSDN博客 https://blog.csdn.net/weixin_37837856/article/details/155242645

[40] MOE论文详解(4)-GLaM:Efficient Scaling of Language Models with Mixture-of-Experts | MLTalks https://www.mltalks.com/posts/847141942/

[41] 大模型研发全流程:从技术架构到商业落地的全景分析_ibm planing analytics-CSDN博客 https://blog.csdn.net/tianyamingyue1993/article/details/158210099

[42] 从零打造垂直领域大模型:一个口腔诊所案例的完整拆解_那个AI玩家 http://m.toutiao.com/group/7629919461956485686/

[43] 通用与垂直领域大模型训练的核心差异解析 https://www.iesdouyin.com/share/video/7593899601699973093

[44] 垂直大模型训练报告.docx-原创力文档 https://m.book118.com/html/2025/1016/7101054000011000.shtm

[45] 技术人必看:基础大模型、行业大模型、场景大模型的区别与联系,一篇搞定 https://blog.csdn.net/2301_76168381/article/details/149445703

[46] 国内外主流AI大模型科普:分类解析与硬件需求指南_木林森丛 http://m.toutiao.com/group/7618845420688654890/

[47] Anthropic Transparency Report https://crfm.stanford.edu/fmti/December-2025/company-reports/Anthropic_FinalReport_FMTI2025.html

[48] OpenAI 发布 GPT-5:52 万亿参数 + 混合架构革新,多模态能力与 API 价格体系全解析_gpt5参数规模-CSDN博客 https://blog.csdn.net/m0_48891301/article/details/150214232

[49] 清华SuperBench全球测评出炉,Claude 3拿下多个冠军!合成数据才是人类未来? - 智源社区 https://hub.baai.ac.cn/view/36851

[50] The Claude 3 Model Family: Opus, Sonnet, Haiku https://assets.anthropic.com/m/61e7d27f8c8f5919/original/Claude-3-5-Sonnet-Model-Card.pdf

[51] 力压GPT4的新一代模型Claude 3详细技术报告解读(上)_claude3 模型新的技术-CSDN博客 https://blog.csdn.net/wangchen900705/article/details/139264497

[52] Claude vs. GPT-5.1: Value Alignment Comparison https://claude3.pro/claude-vs-gpt-5-1-value-alignment-comparison/

[53] 大模型微调全攻略:从数据构建到部署落地的完整指南(必读收藏)_人工智能_模型优化师-火山引擎 ADG 社区 https://adg.csdn.net/697075e0437a6b40336a5917.html

[54] Mixture of Experts for NLG models https://www.deepspeed.ai/tutorials/mixture-of-experts-nlg/

[55] 大模型微调「数据集构建」保姆级教程(超全)微调成败首在数据。本文手把手教你从目标对齐、多源收集、工业清洗到版本管理,打造 - 掘金 https://juejin.cn/post/7569413676157190159

[56] 大模型微调数据量选择策略及建议 https://www.iesdouyin.com/share/video/7573577182325296427

[57] 阿里开源Qwen3-Coder-Next,80B参数仅激活3B的MoE顶尖编程助手_不秃头程序员 http://m.toutiao.com/group/7603229393569251882/

[58] 大模型训练三阶段全解析:预训练、微调与对齐(程序员必看,建议收藏)_大模型的训练的三个阶段-CSDN博客 https://blog.csdn.net/2401_84204413/article/details/157362328

[59] 大模型研发微调的工作流程_大模型微调到上线全流程-CSDN博客 https://blog.csdn.net/qq_64255898/article/details/157903645

[60] 大模型研发全流程:从技术架构到商业落地的全景分析_ibm planing analytics-CSDN博客 https://blog.csdn.net/tianyamingyue1993/article/details/158210099

[61] 大模型参数简史 https://c.m.163.com/news/a/K3S5V7F80511831M.html?from=subscribe

[62] 原创丨一文读懂大模型开发三部曲:预训练、监督微调与对齐-CSDN博客 https://blog.csdn.net/tmb8z9vdm66wh68vx1/article/details/157264392

[63] 通用与垂直领域大模型训练的核心差异解析 https://www.iesdouyin.com/share/video/7593899601699973093

[64] 2025年主流 AI 大模型全面对比 ,哪个才是最强王者?_主流大模型对比-CSDN博客 https://blog.csdn.net/l01011_/article/details/148219532

[65] 从零打造垂直领域大模型:一个口腔诊所案例的完整拆解_那个AI玩家 http://m.toutiao.com/group/7629919461956485686/

[66] 5种落地性最强的对齐微调数据集格式_sft rlhf conversation input output-CSDN博客 https://blog.csdn.net/Climbman/article/details/157545821

[67] IPPM; SyPPM; SoCPPM|医疗自然语言处理数据集|大语言模型评估数据集 https://www.selectdataset.com/dataset/56c7d75ecf1eb0f9d1fa2890af3aa593

[68] [ 2504 ] 多 模态 金融 评估 数据 集 Fin MR 发布 , 评估 更 全面 arxiv : 2506 . 06282 Understanding Financial Reasoning in AI : A Multimodal Benchmark and Error Learning Approach

# 大模型 # AI # 人工 智能 # 金融 https://www.iesdouyin.com/share/video/7522510979872197930

[69] 爆肝整理!LLaMA 3垂直领域微调全攻略:从数据清洗到模型部署(附医疗_金融实战案例)_基于llama facitory的垂直行业大模型-CSDN博客 https://blog.csdn.net/weixin_40593051/article/details/147862610

[70] 大模型对齐如何做 https://docs.pingcode.com/insights/ffnuvrj87lz23jpv1ma4t0hv

[71] 医疗、金融、法律领域专属模型训练全记录(附代码)-CSDN博客 https://blog.csdn.net/weixin_35266799/article/details/155867260

[72] 大模型如何进行对齐训练 https://docs.pingcode.com/insights/x9xsbfych6vcuguqcbxbyl9e

[73] Symphony-MoE: Harmonizing Disparate Pre-trained Models into a Coherent Mixture-of-Experts https://arxiv.org/pdf/2509.18542v2

[74] ChartMoE: Mixture of Expert Connector for Advanced Chart Understanding https://arxiv.org/html/2409.03277v1/

[75] ICLR 2025 | IDEA、清北等提出ChartMoE:探究下游任务中多样化对齐MoE的表征和知识-CSDN博客 https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/146927442

[76] 原来 混合 专家 模型 MoE 就是 安排 个 接待员 在 前台 , 专 事 专办 ! # 手 撕 AI 大模型 https://www.iesdouyin.com/share/video/7607357284447997203

[77] Uni-MoE: Scaling Unified Multimodal LLMs with Mixture of Experts_人工智能_Jamence-火山引擎 ADG 社区 https://adg.csdn.net/696f203a437a6b4033696aef.html

[78] Mixture of insighTful Experts (MoTE): The Synergy of Reasoning Chains and Expert Mixtures in Self-Alignment https://preview.aclanthology.org/fix-opsupmap-display/2025.acl-long.151.pdf

[79] ChartMoE: Mixture of Diversely Aligned Expert Connector for Chart Understanding https://openreview.net/forum?id=o5TsWTUSeF&noteId=89EUlR3um3

[80] Pangu Pro MoE: Mixture of Grouped Experts for Efficient Sparsity https://arxiv.org/html/2505.21411v2

[81] GPT-5 vs o4 Training https://benched.ai/guides/gpt-5-vs-o4-training

[82] GPT-5 技术提升与数据指标整理 - 专业网站开发服务 https://www.nsmao.com/announcement/87

[83] GPT-5 Training Data: Evolution, Sources, and Ethical Concerns https://ttms.com/gpt-5-training-data-evolution-sources-and-ethical-concerns/

[84] OpenAI 新 模型 亮点 汇总 ( 截至 2025 年 8月 8日 ) # 人工 智能 https://www.iesdouyin.com/share/video/7536046044614855963

[85] OpenAI 发布 GPT-5:52 万亿参数 + 混合架构革新,多模态能力与 API 价格体系全解析_gpt5参数规模-CSDN博客 https://blog.csdn.net/m0_48891301/article/details/150214232

[86] 隆重介绍开发者专用 GPT-5 | OpenAI https://openai.com/zh-Hant/index/introducing-gpt-5-for-developers/

[87] 隆重推出面向开发人员的 GPT-5 | OpenAI https://openai.com/zh-Hans-CN/index/introducing-gpt-5-for-developers/?video=1108156387

[88] 隆重推出gpt‑5 https://openai.com/zh-Hans-CN/index/introducing-gpt-5/

[89] 高质量数据集典型案例 | 司法领域法律专业高质量数据集-国家数据局 https://www.nda.gov.cn/sjj/ywpd/szkjyjcss/1103/20251103204443763424567_mobile.html

[90] 垂直领域大模型构建:法律行业“类ChatGPT”系统的训练与落地_大模型 专项领域 训练-CSDN博客 https://blog.csdn.net/qq_41187124/article/details/150529051

[91] 大模型对齐如何做 https://docs.pingcode.com/insights/ffnuvrj87lz23jpv1ma4t0hv

[92] 法律大模型核心能力解析:律师选型关键要素 https://www.iesdouyin.com/share/video/7588000011239492922

[93] PLAWBENCH|法律AI数据集|评测基准数据集 https://www.selectdataset.com/dataset/ee30716b3fcb8ccda6aa811d6a451bae

[94] 垂直行业大模型微调:法律AI训练心得与反思-CSDN博客 https://blog.csdn.net/qq_41187124/article/details/159386097

[95] 法律大模型微调实战:用LLaMA-Factory打造你的专属法律AI助手基于复旦大学开源的 DISC-Law-SFT数据 - 掘金 https://juejin.cn/post/7559286535989706752

[96] MemAlign: Aufbau besserer LLM-Bewerter aus menschlichem Feedback mit skalierbarem Speicher https://www.databricks.com/de/blog/memalign-building-better-llm-judges-human-feedback-scalable-memory

[97] 中国信通院:2025年高质量数据集建设指引_模型_推理_应用 https://m.sohu.com/a/932921409_468661/

[98] 中国联通入选国务院国资委“首批央企人工智能行业高质量数据集”名单_通信世界网 http://www.cww.net.cn/article?id=79F06B434A8C4DD48DD7C86D30740534

[99] 专家 谈 | 中国 信通 院 曹峰 : 数据 赋 能 企业 “ AI + ” 发展 https://www.iesdouyin.com/share/video/7514956849737649471

[100] 中国信通院发布《人工智能产业发展研究报告(2025年)》_中国信通院 http://m.toutiao.com/group/7603652065675592232/

[101] 中国信通院发布“方升-多模态”大模型基准测试结果(2025 Q4)_中国信通院 http://m.toutiao.com/group/7602435691989008942/

[102] 迭代升级,智赋运维!面向运维的行业大模型“智域”2.0正式发布_澎湃新闻客户端 http://m.toutiao.com/group/7596084150177464867/

[103] GPT-5 System Card https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf?categoryid=a89c0000000akp1aag%3Fcategoryid=a89c0000000akp1aag%3Fcategoryid=a89c0000000akp1aag%3Fcategoryid=a89c0000000akp1aag%3Fcategoryid=a89c0000000akp1aag%3Fcategoryid=a89c0000000akp1aag%3Fcategoryid=a89c0000000akp1aag%3Fcategoryid=a89c0000000akp1aag%3Futm_source=pantheon_stripped

[104] GPT-5 vs o4 Training https://benched.ai/guides/gpt-5-vs-o4-training

[105] What’s in GPT-5? https://s10251.pcdn.co/whats-in-gpt-5/

[106] 浙江大学DeepSeek解析智能时代人机协作新常态与应用实例 https://www.iesdouyin.com/share/video/7532763666073144586

[107] GPT-5 Training Data: Evolution, Sources, and Ethical Concerns https://ttms.com/gpt-5-training-data-evolution-sources-and-ethical-concerns/

[108] 5 + 3 + 3 = 0 transparency https://openfuture.eu/blog/5-3-3-0-transparency/

[109] Update to GPT-5 System Card: GPT-5.2 https://cdn.openai.com/pdf/3a4153c8-c748-4b71-8e31-aecbde944f8d/oai_5_2_system-card.pdf?_hsenc=p2ANqtz-_BPS_mSGstnWPqaPodKEXwP1jXB-EncIk70lFRtvcwAHyeKW4pvtdJmNx-hKC26hBmLpOQ

[110] 高质量数据集典型案例 | 司法领域法律专业高质量数据集-国家数据局 https://www.nda.gov.cn/sjj/ywpd/szkjyjcss/1103/20251103204443763424567_mobile.html

[111] 清华大学LegalOne-R1法律大模型正式发布-清华大学计算机科学与技术系 https://www.cs.tsinghua.edu.cn/info/1088/7036.htm

[112] InternLM/InternLM-Law https://github.com/internlm/internlm-law

[113] 小包公法律AI双模型引擎驱动精准智能法律应用 https://www.iesdouyin.com/share/video/7543194696634502459

[114] PLAWBENCH|法律AI数据集|评测基准数据集 https://www.selectdataset.com/dataset/ee30716b3fcb8ccda6aa811d6a451bae

[115] 无需训练实现价值观实时动态对齐:上交开源价值观对齐方法,闭源与开源大模型均适用…-CSDN博客 https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/135834398

[116] MuPLeR-retrieval|法律检索数据集|跨语言检索数据集 https://www.selectdataset.com/dataset/bece6d4e454719d92924658ed1365b06

[117] 王炸!全球首个“慢思考”法律大模型发布,港科大北大联手出品,颠覆行业!-CSDN博客 https://blog.csdn.net/m0_59163425/article/details/155495215

[118] Symphony-MoE: Harmonizing Disparate Pre-trained Models into a Coherent Mixture-of-Experts https://yuyue.github.io/res/paper/SymphonyMoE-AAAI2026.pdf

[119] MLMs之MoE之Chart:《ChartMoE: Mixture of Diversely Aligned Expert Connector for Chart Understanding》翻译与解-CSDN博客 https://blog.csdn.net/qq_41185868/article/details/147031979

[120] 原来 混合 专家 模型 MoE 就是 安排 个 接待员 在 前台 , 专 事 专办 ! # 手 撕 AI 大模型 https://www.iesdouyin.com/share/video/7607357284447997203

[121] 收藏级MoE详解|小白也能看懂的混合专家模型(从基础到实战,程序员必学)-CSDN博客 https://blog.csdn.net/m0_48891301/article/details/157941325

[122] 大模型论文 | ChartMoE:关于图表建模对齐的构思_mixture of diversely aligned expert connector of c-CSDN博客 https://blog.csdn.net/Code1994/article/details/148559419

[123] Mixture of insighTful Experts (MoTE): The Synergy of Reasoning Chains and Expert Mixtures in Self-Alignment https://preview.aclanthology.org/fix-opsupmap-display/2025.acl-long.151.pdf

[124] 【收藏学习】混合专家模型(MoE)深度解析:大模型稀疏化革命与实战应用(上)_51CTO博客_混合π模型 https://blog.51cto.com/u_16163442/14344252

[125] Transformer 学习笔记(四):Mixture of Experts 稀疏架构 | LLM Notes https://phonism.github.io/LLMNotes/transformer-part4-moe/

[126] 中国信通院发布“方升-多模态”大模型基准测试结果(2025 Q4)_中国信通院 http://m.toutiao.com/group/7602435691989008942/

[127] 专家 谈 | 中国 信通 院 曹峰 : 数据 赋 能 企业 “ AI + ” 发展 https://www.iesdouyin.com/share/video/7514956849737649471

[128] 中国信通院:2025年高质量数据集建设指引_模型_推理_应用 https://m.sohu.com/a/932921409_468661/

[129] 中国信通院:AI原生数据成核心,高质量数据集驱动大模型时代_搜狐网 https://m.sohu.com/a/954450911_121924584/

[130] 迭代升级,智赋运维!面向运维的行业大模型“智域”2.0正式发布_澎湃新闻客户端 http://m.toutiao.com/group/7596084150177464867/

[131] 中国信通院发布《人工智能产业发展研究报告(2025年)》(附下载) https://c.m.163.com/news/a/KKS18PNF05346KF7.html

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐