我们知道之前Focal Loss是为one-stage的检测器的分类分支服务的,它支持0或者1这样的离散类别label。 然而,对于我们的分类-质量联合表示,label却变成了0~1之间的连续值。我们既要保证Focal Loss此前的平衡正负、难易样本的特性,又需要让其支持连续数值的监督,自然而然就引出了我们对Focal Loss在连续label上的拓展形式...
IOU Loss是通过计算两个目标框的交集面积与并集面积之比来衡量它们的重叠程度,公式如下: IOU Loss = 1 - IOU 其中,IOU表示交并比,计算公式为: IOU = Intersection / Union GIOU Loss是在IOU Loss的基础上进行了改进,解决了IOU Loss在处理高度不一致的目标框时的缺陷。GIOU Loss考虑了目标框的外接矩形(bounding...
4.1 focal loss 简而言之,focal loss的作用就是将预测值低的类,赋予更大的损失函数权重,在不平衡的数据中,难分类别的预测值低,那么这些难分样本的损失函数被赋予的权重就更大。 在这里插入图片描述 4.2 训练前准备 创建链接 /user-data/slowfastDataSet/Datasets 文件夹的软链接: 先进入JN-OpenLib-mmaction2 ...
在一张输入image中,目标占的比例一般都远小于背景占的比例,所以两类example中以negative为主,这引发了两个问题: 1)negative example过多造成它的loss太大,以至于把positive的loss都淹没掉了,不利于目标的收敛; 2)大多negative example不在前景和背景的过渡区域上,分类很明确(这种易分类的negative称为easy negative),...
在深度学习中,损失函数(Loss Function)是指导模型学习的关键。一个合适的损失函数可以帮助模型更好地拟合数据,提高泛化能力。传统的Softmax Loss在分类任务中占据主导地位,但随着研究的深入,人们发现Softmax Loss在某些任务中存在一些不足,因此提出了多种改进方案。 首先,我们来看一下传统的Softmax Loss。Softmax Loss...
Quality Focal Loss (QFL) 是一种用于目标检测的改进损失函数。它的主要创新是将目标的定位质量(如边界框与真实对象的重叠度量,例如IoU得分)直接融合到分类损失中,形成一个联合表示。这种方法能够解决传统目标检测中分类与定位任务之间存在的不一致性问题。QFL通过为每个类别的得分赋予根据定位质量调整的权重,使得检测...
focal loss 学习记录 上图: 图中的pt 横轴的取值范围是0-1,接近1时有两种可能情况,(1)y是1,logit接近1(2)y是0,logit接近0. 因为pt是随着y变的。所以以上两种情况来说都是预测的比较好的情况,在目标检测中,大部分都是背景,因此大部分都预测的很好,因此要减少预测的好的在loss中的权重。 交叉熵解释 交叉...
1、Large Marge Softmax Loss ICML2016提出的Large Marge Softmax Loss(L-softmax)通过在传统的softmax loss公式中添加参数m,加大了学习的难度,逼迫模型不断学习更具区分性的特征,从而使得类间距离更大,类内距离更小。核心内容可以看下图: 什么意思呢?上面一行表示training set,下面一行表示testing set。每一行的...
FocalEIoU是一种结合了EIoU和Focal Loss的目标检测损失函数。Focal Loss是一种针对分类问题设计的损失函数,它通过降低易分类样本的权重来提高模型对难分类样本的学习能力。FocalEIoU通过将Focal Loss与EIoU相结合,使得模型在训练过程中更加关注难分类样本和定位精度,从而提高目标检测的性能。五、Wise-IoUWise-IoU是一种...
Focal Tversky损失函数结合了Focal Loss和Tversky指数的优点。Focal Loss是一种针对分类任务的损失函数,它通过调整难易样本的权重,使得模型在训练过程中更加关注难以分类的样本。而Tversky指数则是一种评价分割效果的指标,它综合考虑了分割结果的精度和召回率。Focal Tversky损失函数将两者相结合,使得模型在训练过程中不仅能...