交叉熵损失和二元交叉熵损失
·
一、什么是交叉熵损失(Cross Entropy Loss)
交叉熵是信息论的概念。WIKIPEDIA给出的交叉熵定义如下
上面的意思大概是说,给定两个概率分布p和q,通过q来表示p的交叉熵为
其中是关于分布q的期望值算子。如果概率分布p和概率分布q是离散的,那么通过q来表示p的交叉熵为
交叉熵刻画的是两个概率分布之间的距离。交叉熵越小,两个概率分布越接近。举个例子
交叉熵损失定义为
其中,是标签值,是预测值。
注意,这里的预测值一般是通过数据和模型参数经过某种可导的计算后所求得的结果。交叉熵损失通过梯度下降来不断地使预测值的分布接近标签值的分布,与此同时模型的参数也得到更新,而这就是机器学习中所谓的学习。
二、什么是二元交叉熵损失(Binary Cross Entropy Loss)
二元交叉熵损失定义为
其中是第i个样本的二元标签值0或者1(ground truth),是模型对第i个样本的预测值,即模型预测第i个样本标签值为1的概率。
可以轻易地分析出来,当标签值时,;当标签值时,。也就是说,在二元交叉熵损失函数第一项和第二项之中,必定有一项的值为0。
我们再来看第一项和第二项的函数图像(横坐标为,纵坐标为第i个样本的):
当标签值时 ,,如果接近1,接近0;如果接近0, 则变得无穷大。
当标签值时,,如果接近1,变得无穷大;如果接近0,接近0。
通过以上的简单分析,当预测值接近标签值时损失很小,当预测值远离标签值时损失很大,这一特性是有利于模型的学习的。
三、参考
更多推荐
已为社区贡献13条内容
所有评论(0)