与神经网络的发展类比

感知器准则 →\rightarrow 最小平方误差判别
∣∣| |∣∣ ↓\downarrow神经网络,误差反馈学习 ∣∣| |∣∣
感知器模型(误差反馈学习) →\rightarrow 线性神经单元(梯度下降法)

当样本是线性可分的时候,感知器法和松弛法给了我们许多寻找分类向量的简单方法。这些都被称为“误差校正方法”(error-correcting procedure),这是因为它们只在遇到错分样本时才对权向量进行校正。它们对可分问题的成功之处在于对求得一个无错解进行坚持不懈的搜索。实际上只有在有理由认为最优线性判别函数的误差率比较低的时候才会考虑使用这些方法。

当然,即使对训练样本的分离向量已经找到,也不能保证它对独立的测试数据都能很好地分类。我们感觉有种直觉印象,它表明数目少于 2d^2\hat{d}2d^ 的样本集很可能是线性可分的——我们会在第9章再次考察这一点。因此有人可能会想到:对设计好的样本集使用多次,综合多种因素来获得分类器,并由此确保它在训练和实际数据上的分类性能是相同的。不幸的是,如果使用非常多的数据的话,它们往往不是线性可分的。这样,当样本不是线性可分时了解“误差校正方法”的效果如何就变得非常重要了。

由于不存在可以将不可分数据集中的样本都能正确分类的权向量(由定义可知),显然误差校正过程永远不会结束。这些算法都将产生一个无限的权向量序列,所有的成员都有可能或者不可能得到有用的“解”。在一些特殊的例子中,这些算法在不可分的情况下的行为被全面的研究过。比如,固定增量算法得到的权向量的幅值总是有界的。从经验上得知,校正过程的终止取决于权向量的某个极限点附近时其幅值波动的趋势。从理论的观点来看,如果样本的分量是整数值的话,固定增量算法将产生一个有限状态过程。如果校正过程停在任意一个状态上,权向量可能正处于,也可能不处于好的状态上。如果对校正算法得到的权向量求均值的话,就可以降低偶然选到处于不好状态上的坏向量的风险。(杜达在说人话吗?)


我们已经考虑的准则函数都将注意力放在被错分的样本上。现在我们考虑一种包含所有样本的准则函数。前面我们是寻找一个使得所有内积 θ⊤zi\boldsymbol{\theta}^{\top} \boldsymbol{z}_iθzi 都为正数的权向量,现在我们尝试使得 θ⊤zi=bi\boldsymbol{\theta}^{\top} \boldsymbol{z}_i = b_iθzi=bi 的情况,这里的 bib_ibi 是一些任意取定的正常数。因此我们就将线性不等式求解的问题改为更强的,但也更容易理解的问题,即线性方程组的求解。


在线性不可分的情况下,不等式组
θ⊤zi>0,i=1,2,⋯ ,N(1) \boldsymbol{\theta}^{\top} \boldsymbol{z}_i > 0, \quad i = 1, 2, \cdots, N \tag{1} θzi>0,i=1,2,,N(1)
不可能同时满足。一种直观的想法是,希望求解一个θ\boldsymbol{\theta}θ使被错分的样本尽可能少,即不满足不等式 (1) 的样本尽可能少,这种方法是通过解线性不等式组来最小化错分样本数目,通常采用搜索算法求解。

但是,求解线性不等式组并不方便,为了避免此问题,可以引进一系列待定的常数(余量),把不等式组 (1) 转变成下列方程组
θ⊤zi=yi>0,i=1,2,⋯ ,N \boldsymbol{\theta}^{\top} \boldsymbol{z}_i = y_i > 0, \quad i = 1, 2, \cdots, N θzi=yi>0,i=1,2,,N

或写成矩阵形式
Zθ=y \boldsymbol{Z} \boldsymbol{\theta} = \boldsymbol{y} Zθ=y


假设一组ddd维样本集x1,x2,⋯ ,xN\boldsymbol{x}_1, \boldsymbol{x}_2, \cdots, \boldsymbol{x}_Nx1,x2,,xN,其中N1N_1N1个标记为C1C_1C1的样本记为子集D1\mathcal{D}_1D1,N2N_2N2个标记为C2C_2C2的样本记为子集D2\mathcal{D}_2D2。进一步,假设一个从xi\boldsymbol{x}_ixi生成的样本zi\boldsymbol{z}_izi,它通过加上一个阈值分量x0≡1x_0 \equiv 1x01而得到“增广样本向量”。而且如果它被归为C2C_2C2,那么整个模式向量都乘以−1-11,即“规范化”操作。不失一般性,可以假设前N1N_1N1个样本标记C1C_1C1,后N2N_2N2个样本标记C2C_2C2。这样矩阵Z\boldsymbol{Z}Z可以写成分块矩阵
Z=[11X1−12−X2] \boldsymbol{Z}= \begin{bmatrix} \boldsymbol{1}_1 & \boldsymbol{X}_1 \\ -\boldsymbol{1}_2 & -\boldsymbol{X}_2 \end{bmatrix} Z=[1112X1X2]
其中,1i\boldsymbol{1}_i1iNiN_iNi个 1 的列向量,Xi\boldsymbol{X}_iXi是一个Ni×dN_i \times dNi×d矩阵,它的行是标记CiC_iCi的样本。

同样将θ\boldsymbol{\theta}θy\boldsymbol{y}y分块:
θ=[w0w] \boldsymbol{\theta} = \begin{bmatrix} w_0 \\ \boldsymbol{w} \end{bmatrix} θ=[w0w]

y=[1112] \boldsymbol{y} = \begin{bmatrix} \boldsymbol{1}_1 \\ \boldsymbol{1}_2 \end{bmatrix} y=[1112]
同样地,负号可以放在右端项
Z=[11X112X2] \boldsymbol{Z}= \begin{bmatrix} \boldsymbol{1}_1 & \boldsymbol{X}_1 \\ \boldsymbol{1}_2 & \boldsymbol{X}_2 \end{bmatrix} Z=[1112X1X2]
y=[11−12] \boldsymbol{y} = \begin{bmatrix} \boldsymbol{1}_1 \\ -\boldsymbol{1}_2 \end{bmatrix} y=[1112]

从此,y\boldsymbol{y}y有了新的物理解释,可以看成是类别标记,对于标记为C1C_1C1的类别,y=1y=1y=1,标记为C2C_2C2的类别,y=−1y=-1y=1。从样本空间{C1,C2}\{C_1, C_2\}{C1,C2}到数值的映射。机器学习因为是从输入到输出的映射,因此用数值表示类别标记。(注:凡事把C_1, C_2当集合的,都是概念不清,因为Duda用的ω1\omega_1ω1, ω2\omega_2ω2,但Duda数学功底扎实,没有数学概念错误,某人誊抄他的,自以为聪明的用了集合语言)


为了表述方便,仍用X\boldsymbol{X}X表示规范化增广样本矩阵,w{\boldsymbol w}w表示增广权向量。
通常情况下,n>d+1n > d+1n>d+1 ,所以式(3 37)中方程个数大于未知数个数,属于超定方程组,没有精确解。方程组的误差为e=y−Xw{\bm e} = {\bm y} - {{\bm X}} {\bm w}e=yXw ,可以求解方程组的最小平方误差解,即寻找解向量 w{\bm w}w,使误差的平方和最小:
JS(w)=∥e∥22=∥y−Xw∥22=∑i=1n(yi−wTxi)2 J_{S} \left( {\bm w} \right) = \lVert {\bm e} \rVert^2_2 = \lVert {\bm y} - {{\bm X}} {\bm w}\rVert^2_2 = \sum\limits_{i=1}^{n} \left( {\bm y}_i - {\bm w}^{\rm T} {\bm x}_i \right)^2 JS(w)=e22=yXw22=i=1n(yiwTxi)2

可以用伪逆解或者梯度下降法求解。

最小二乘准则的目标是使误差平方和最小,而不是错误分类样本数最小。对于线性可分样本集,决策面也不一定能将两类样本完全正确分开,不能确保每个样本都被正确分类。
在这里插入图片描述


MSE 解是由 bbb 决定的,我们将会看到 bbb 的不同选择给解带来不同的性质。如果 bbb 是任意一个固定的值,没有理由相信 MSE 的解在线性可分情况下能得到一个分类向量。
但我们却有理由希望通过最小化平方误差准则函数,能够得到一个在可分和不可分情况下都是很有用的判别函数。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐