AI 学科核心名词解释与关联术语对比

说明:聚焦高频核心概念,先定义(简洁易懂),再对比(突出差异+联系),便于快速建立知识框架、区分易混点。


一、核心名词解释(按逻辑分组)

(一)基础层级:AI → ML → DL

名词 定义(一句话核心)
人工智能(AI) 让机器模拟人类智能行为(感知、推理、学习、决策、交互)的技术科学。
机器学习(ML) AI 的核心技术路径:从数据中自动学习规律,实现预测或决策,无需硬编码规则。
深度学习(DL) ML 的主流分支:基于多层神经网络,端到端处理高维数据(如图像、文本),自动提取特征。

关系AI ⊃ ML ⊃ DL

  • AI 是目标,ML 是方法,DL 是当前最有效的 ML 实现手段。

(二)机器学习三大范式

名词 定义 典型任务
监督学习 带标签数据训练,学习输入→输出的映射。 分类(猫/狗)、回归(房价预测)
无监督学习 无标签数据训练,挖掘隐藏结构。 聚类(用户分群)、降维(PCA)
强化学习(RL) 智能体通过与环境交互+奖励反馈,学习最优策略。 游戏AI、机器人控制、自动驾驶决策

关键区别

  • 监督:有“标准答案”
  • 无监督:自己找规律
  • 强化学习:边做边学,靠“奖惩”引导

(三)核心模型与架构

名词 定义 核心优势 典型应用
神经网络(NN)Neural Network 模拟人脑神经元的计算模型,由多层非线性变换组成。 强大的非线性拟合能力 所有深度学习模型的基础
卷积神经网络(CNN)Convolutional Neural Network 专为网格数据(图像/视频)设计的 NN,通过卷积核提取局部空间特征。 平移不变性、参数共享 图像分类、目标检测
循环神经网络(RNN) Recurrent Neural Network 专为序列数据(文本/语音)设计的 NN,通过循环结构记忆历史信息。 捕捉时序依赖 早期机器翻译、语音识别
Transformer 基于自注意力机制的 NN 架构,并行处理序列,建模长距离依赖。 高效、可扩展、全局上下文理解 大语言模型、多模态模型
大语言模型(LLM) 基于 Transformer,在海量文本上预训练的超大规模语言模型。 通用语言理解与生成能力 ChatGPT、通义千问、Claude

演进关系
RNN(串行、长程弱) → Transformer(并行、长程强) → LLM(Transformer + 海量数据 + 预训练范式)


(四)关键辅助概念

名词 定义
特征(Feature) 描述样本的属性(如像素、词向量),是模型的输入。
标签(Label) 监督学习中的目标输出(如“猫”),用于指导训练。
注意力机制 Transformer 核心:动态分配权重,聚焦关键信息,忽略无关内容。
过拟合 模型“死记硬背”训练数据(含噪声),泛化能力差(训练好,测试差)。
欠拟合 模型“学不会”数据规律,训练和测试表现都差。

二、强关联术语对比(核心差异 + 联系)

对比1:AI vs ML vs DL

维度 人工智能(AI) 机器学习(ML) 深度学习(DL)
范围 最广(总目标) 中(实现路径) 最窄(具体技术)
是否依赖数据 不一定(如专家系统) ✅ 是 ✅ 是(且需大量)
典型方法 专家系统、搜索算法、ML、机器人 决策树、SVM、神经网络 CNN、RNN、Transformer
关系 包含 ML 和 DL 包含 DL 是 ML 的子集

💡 一句话记
AI 是“做什么”,ML 是“怎么做”,DL 是“现在最火的做法”。


对比2:三大学习范式

维度 监督学习 无监督学习 强化学习
数据形式 (x, y) 有标签 x 无标签 (s, a, r) 交互序列
反馈来源 显式标签 环境奖励(延迟、稀疏)
学习方式 被动模仿 自主发现 主动试错
评估指标 准确率、F1、MSE 轮廓系数、重构误差 累积回报、胜率
是否需要标注 ✅ 必须 ❌ 不需要 ❌(但需设计奖励函数)

💡 场景联想

  • 监督:老师批改作业(有标准答案)
  • 无监督:自己整理书架(按相似性分组)
  • 强化学习:玩电子游戏(靠得分高低调整策略)

对比3:CNN vs RNN vs Transformer

维度 CNN RNN Transformer
适用数据 图像、视频(2D/3D 网格) 文本、语音(1D 序列) 通用(序列、图像、多模态)
核心机制 卷积核滑动 + 池化 循环隐藏状态 自注意力 + 位置编码
并行能力 局部并行 ❌ 串行(逐时间步) ✅ 全序列并行
长程依赖 弱(靠堆叠层) 弱(梯度消失) ✅ 强(直接建模任意距离)
当前地位 CV 主流(但被 ViT 挑战) 逐渐被取代 NLP/多模态 绝对主流

💡 为什么 Transformer 赢了?
并行训练快 + 长距离建模强 = 更适合大模型时代。


对比4:Transformer vs LLM

维度 Transformer 大语言模型(LLM)
本质 神经网络架构(通用工具) 具体模型(基于 Transformer 构建)
用途 可用于 NLP、CV、语音等 专用于语言任务(理解+生成)
规模 可大可小 通常超大规模(数十亿~万亿参数)
训练方式 需配合任务设计 预训练 + 微调/对齐(如 RLHF)

关系
Transformer 是“发动机”,LLM 是“搭载该发动机的豪华轿车”。


对比5:过拟合 vs 欠拟合

维度 过拟合 欠拟合
表现 训练误差低,测试误差高 训练 & 测试误差都高
原因 模型太复杂 / 数据太少 / 含噪声 模型太简单 / 特征不足 / 训练不足
解决思路 正则化(L1/L2)、Dropout、增数据、早停 增加模型容量、加特征、延长训练
类比 考试押题全中,换题就不会 连课本例题都做不对

💡 理想状态:训练误差 ≈ 测试误差,且都较低。


三、总结:一张图掌握 AI 核心脉络

人工智能(AI)
└── 机器学习(ML)
├── 监督学习 → 分类/回归
├── 无监督学习 → 聚类/降维
└── 强化学习 → 策略优化

└── 深度学习(DL)
├── CNN → 计算机视觉
├── RNN → 传统序列建模(渐退)
└── Transformer → 大语言模型(LLM) / 多模态

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐