神经网络与深度学习课程总结(第二周学习回顾)

本文整理自哈尔滨工业大学屈桢深老师的讲义,旨在对当周课程内容进行系统总结,帮助回顾神经网络的理论基础、线性模型、感知机、多层网络及BP算法原理,并形成学习笔记。


一、课程概述与人工智能背景

1. 人工智能与神经网络

人工智能(Artificial Intelligence, AI)是利用机器完成原本需要人类智慧才能完成的任务,包括理论、方法、技术与应用系统的研究。神经网络与深度学习是人工智能最热门的分支之一,目标是模拟人脑神经元的处理方式,实现复杂任务的自动学习与智能决策。

人工智能的主要研究方法:

  • 仿生角度:模拟自然生物信息处理过程,如神经网络、深度学习

  • 符号学角度:统计、逻辑、博弈搜索等方法实现机器学习

  • 行为学角度:控制论方法实现机器自我演化,例如强化学习

  • 交叉方法:结合多种角度的方法,形成综合智能策略

2. 机器学习与数据基础

机器学习是人工智能的重要分支,通过数据经验改善系统性能。其主要目标是:

  • 预测未知信息

  • 理解复杂系统的规律

  • 自动优化决策

同时,随着大数据的广泛积累,传统机器学习方法在处理非结构化数据时显得力不从心。特征工程(Feature Engineering)成为关键环节,但其设计依赖经验,存在局限性,例如尺度不变性、旋转不变性、光照不变性等问题。


二、线性回归与分类

1. 线性回归

线性回归用于分析输入变量与输出变量之间的定量关系,通过拟合直线或平面,实现预测和解释。

示例数据
面积(㎡) 销售价(万元)
123 250
150 320
87 160
102 220
  • 拟合模型
    [ y = h_\theta(x) = \theta_0 + \theta_1 x_1 + \theta_2 x_2 + \dots + \theta_n x_n ]

  • 代价函数
    [ J(\theta) = \frac{1}{2} \sum_{i=1}^N (y_i - h_\theta(x_i))^2 ]
    通过解析解:
    [ \theta = (X^TX)^{-1} X^T y ]
    或梯度下降迭代求解,使代价函数最小。

学习流程图
[输入数据] --> [机器学习方法] --> [估计函数] --> [新估计值]

2. 线性分类与感知机

线性分类器通过特征线性组合进行分类决策。以苹果分类为例:

  • 输入:苹果特征向量(如直径、外观评分)

  • 输出:类别标签(0/1)或概率值(0~1)

Sigmoid函数用于将线性组合映射为概率:
[ y = \frac{1}{1 + e^{-z}}, \quad z = \theta_1 x_1 + \theta_2 x_2 + \theta_0 ]

  • 导数:
    [ y' = y (1 - y) ]

感知机模型(Perceptron)是早期神经元模拟,通过线性组合和阈值完成简单分类,但对XOR等非线性问题无效,需要多层网络解决。


三、多层感知机(MLP)与非线性问题

1. XOR问题与多层结构

单层感知机无法解决非线性可分问题,例如XOR问题。
解决方案:在输入层与输出层之间加入隐藏层,形成多层前馈网络(MLP):

  • 三层网络(输入层、隐藏层、输出层)可以解决XOR问题

  • 隐藏层节点输出
    [ y_1 = f(w_{11}x_1 + w_{12}x_2 - \theta_1), \quad y_2 = f(w_{21}x_1 + w_{22}x_2 - \theta_2) ]

  • 输出层节点
    [ y = f(w_1^2 y_1 + w_2^2 y_2 - \theta) ]

MLP优势
  • 可以表示任意二值逻辑函数(阈值激活)

  • 可以逼近紧集上的连续函数(S型激活)

  • 更深层网络可识别复杂图形和模式空间


2. BP误差反传算法(Backpropagation)

BP算法是多层前馈网络训练的核心方法,目的是通过误差反向传播更新权值,实现模型学习。

算法核心思想
  1. 前向传播:计算各层节点输出

  2. 误差计算:输出层误差
    [ e_i = y_i - \hat{y}_i ]

  3. 反向传播:梯度下降更新权值
    [ \Delta w = -\alpha \frac{\partial J}{\partial w} ]

  4. 迭代训练:重复前向传播和反向传播,直至误差收敛

BP训练流程
[输入样本] --> [前向传播] --> [计算输出误差] --> [反向传播误差] --> [权值更新] --> 循环

BP算法允许多层网络学习复杂函数关系,是深度学习训练的基础。


四、课程心得与学习收获

通过本周课程,我对神经网络从基础理论到实际训练方法有了系统认识:

  1. 理论理解

    • 掌握了人工智能、机器学习与深度学习的概念

    • 理解线性回归、线性分类及感知机原理

    • 掌握XOR问题与多层感知机解决方案

  2. 算法技能

    • 熟悉BP算法的前向传播、误差反传及梯度更新机制

    • 掌握代价函数构造和最小化方法

  3. 实践启发

    • 为后续深度神经网络训练、模型优化与应用奠定基础

    • 理解复杂模式识别和非线性函数逼近的网络能力

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐