部分数学理论基础

1、凸函数性质

在区间[x,y]上的变量可以表示成xt+y(1-t),t越大越靠近x,很好理解。

那么这个图就很好理解这个不等式:

x1就是图里的x,y就是x2。这个理解不了可以直接用直线计算公式推。

2、hoeffding不等式

霍夫丁不等式适用于有界的随机变量。设有两两独立的一系列随机变量

。假设对所有的

都是几乎有界的变量,即满足:

那么这n个随机变量的经验期望:

满足以下的不等式:

具体推到:统计学习--详解Hoeffding不等式 - 知乎

至于这个公式怎么推导,看了半天我也不会,不是高手建议大家还是不要为难自己。

3、泛化误差上界

当我们训练一个模型时,我们通常使用一个有限的训练数据集。模型在这个训练集上的表现(例如分类错误率或回归的损失)被称为训练误差或经验风险。但我们真正关心的是模型在面对从未见过的、新的数据(来自同一个数据分布)时的表现。通过理论上的概率方法,对模型在已知数据上的误差进行放缩,来表示模型在新数据上的期望误差被称为泛化误差或期望风险。有以下作用:

避免过拟合: 训练误差可能很低,但模型可能只是记住了训练数据(过拟合),导致在新数据上表现很差。泛化误差上界提醒我们,模型过于复杂(相对于数据量)可能导致泛化能力下降。

理论保证: 提供了一种理论框架,用于分析学习算法的性能,并指导模型设计(例如模型复杂度的选择)。很多论文里面都会用它来说明模型在未知数据上的理论能力期望。

样本复杂度: 揭示了需要多少训练样本才能以较高的概率保证泛化误差较小。

泛化误差计算公式:

P(x,y)可以理解成取到并测试这个数据的概率,就比如说有100个数据,每个数据被取到的概率相等,那么就是1%,这样积分出来的结果很明显可以发现是在[0,1]之间,实际上P一般不可知。

我们期望泛化误差在未知数据上被经验误差限制在一个范围(泛化误差上界,下面不等式左边的R(f)就是上面的Rexp(f)):

​,在该论文环境下,d可以看着不同模态的数量(也就是f的数量),N为测试样本数量。

这个放缩的量就是这个\varepsilon。上式成立的概率为1-\delta。计算上就是用的上面的霍夫丁不等式。

推导1

我们需要经验误差(已知计算出的损失)和泛化误差(在未知数据上的损失)的差尽量的小,这样也就可以确定模型在未知数据上的大致误差。下面只考虑f1分类器:

我们期望Rexp(f1)-Remp(f1)尽量的小。

也就是Rexp(f)-Remp(f)<\varepsilon,\varepsilon尽量的接近0。

根据霍夫丁不等式,Rexp(f1)-Remp(f1)<\varepsilon成立的概率,即P(Rexp(f)-Remp(f)<\varepsilon),应当限制在多少呢。

我们再看一眼不等式先,不会爆炸的:

注意到:把t看成\varepsilon,R是限制在0-1之间的,那么b-a就是1,n个累加就是n,和上面的n方约掉一个n;再把n看作N

得到:P(Rexp(f1)-Remp(f1)\ge \varepsilon )\le exp(-2\varepsilon ^2N)

对条件取反,得到P(Rexp(f1)-Remp(f1)\le \varepsilon )\ge 1-exp(-2\varepsilon ^2N)

考虑多个f:f1,f2...fd,各个分类器工作相互独立,P(f1\wedgef2)=P(f1)*P(f2),那么所有f同时满足条件的概率为:P(f1)*P(f2)...P(fd) \ge (1-exp(-2\varepsilon ^2N))^d

右边这个有:(1-exp(-2\varepsilon ^2N))^d \ge 1-d*exp(-2\varepsilon ^2N)。不理解的话可以对exp(-2\varepsilon ^2N)=X这个整体变量求偏导看单调性,其中:变量X在0-1之间,d是正整数。

可以得到:P\left(\forall f\in\mathcal{F}: R{\text{exp}}(f) < R{\text{emp}}(f) + \epsilon\right) \ge 1-\delta,其中\delta = d e^{-2N\epsilon^2}

得证。

推导2

参考:泛化误差上界-CSDN博客:3.4
由于损失函数为 0-1 损失,因此损失函数取值范围为 [0,1]。从而对任意
f in F,有R_{emp}(f_i)\in[0,1].
根据 Hoeffding 不等式可得P\bigl(R_{exp}(f)-R_{emp}(f)\ge \epsilon\bigr) \le e^{-2N\epsilon^2}.
由于假设空间 F为有限集合,因此有
\begin{aligned} P(\exists f\in F: R_{exp}(f)-R_{emp}(f)\ge\epsilon) &= P\left(\bigcup_{f\in F}\{R_{exp}(f)-R_{emp}(f)\ge\epsilon\}\right) \\ &\le \sum_{f\in F}P(R_{exp}(f)-R_{emp}(f)\ge\epsilon) \\ &\le d e^{-2N\epsilon^2}. \end{aligned}
因此有P\left(\forall f\in F: R_{exp}(f)-R_{emp}(f)<\epsilon\right) \ge 1-de^{-2N\epsilon^2}
\delta = de^{-2N\epsilon^2},
P\left(\forall f\in F: R_{exp}(f)<R_{emp}(f)+\epsilon\right) \ge 1-\delta.
即至少以概率 1-\delta 有R_{exp}(f)<R_{emp}(f)+\epsilon,其中\epsilon= \sqrt{\frac{1}{2N}\left(\ln d+\ln\frac{1}{\delta}\right)}.
命题得证。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐