在正负样本非常不均衡的情况,对于weighted cross_entropy loss应该如何理解?
在MS-CNN(A Unified Multi-scale Deep ConvolutionalNeural Network for Fast Object Detection)中,作者为了解决正样本数量太少容易引起训练失衡的情况,在cross_entropy loss损失函数中加入了权重系数,形式如下:
关于以上公式有些不理解:在正样本数量缺失的情况下,不是应该增大正样本的权重系数吗,可是按照作者的做法,加入权重系数之后,正负样本系数的倍数关系由之前的r变成了1([1/(1+r)(s+)]/[r/(1+r)(s-)=1]),正样本的权重系数反而变小了。想知道作者这样做是基于什么原理,有没有相关的资料介绍。。谢谢!!
关于以上公式有些不理解:在正样本数量缺失的情况下,不是应该增大正样本的权重系数吗,可是按照作者的做法,加入权重系数之后,正负样本系数的倍数关系由之前的r变成了1([1/(1+r)(s+)]/[r/(1+r)(s-)=1]),正样本的权重系数反而变小了。想知道作者这样做是基于什么原理,有没有相关的资料介绍。。谢谢!!
3 个回复
南七骄傲 - 90后IT男
赞同来自: alex68 、caney
xinmiao
赞同来自: caney
南七骄傲 - 90后IT男
赞同来自: yulian99