该图还显示,中心损失帮助模型获得比交叉熵损失(CE)和焦点损失(Focal loss)都更低的 WFC 得分。详细信息可以在补充材料中找到。 较低的 CFC 会带来更好的 MaxCosine。MaxCosine 使用余弦相似度来识别分布外样本。因此,当低似然区域中的分布内样本较少(即困难样本较少)时,MaxCosine 的性能可能会更好。处理困难...
绝大部分balancing方法都是reweight BCE从而使得稀有的instance-label对能够得到足够的关注。 2.2 Focal Loss(FL) Focal Loss通过给较难分类的样本更高的权重。 Focal Loss 2.3 Class-balanced focal loss (CB) 给不同的label赋予不同的权重,从而降低head classes带来的冗余信息。 对于整体频率为n_{i}的标签,balan...
但本文设计的module可以动态调整,而不是像Focal Loss依赖先验的统计进行加权。因为设计了多个classifier experts,而一些简单样本显然不需要这么多的experts,所以就根据样本难易程度进行动态分配。简单来说就是通过一个路由模块,去动态的决定哪些classifier expert应该参与分类,这样可以更高效地针对难学和易学样本,进行不同...
而传统的focal loss优化的目标是{0, 1}这样的离散值。因此该loss更加泛化一点(general) Quality Focal Loss就是上述的更加泛化的FocalLoss,其定义如下所示 上述公式的后部分是展开形式的交叉熵,系数是adaptive的,当预测是和真值接近的时候,系数小,当远的时候系数大。 Distribution Focal Loss 在本节我们主要介绍以下...
仅仅使用focal loss 就使得 map 上升了 10.8%(25.6 to 36.4) context 向量(CTX)和局部特征对齐(L) 都是有效果的,进一步提高了MAP 与Source Only比较,BDC-Faster 和 DA-Faster 使得 performance 巨降,证明了在两个不同的域之间进行严格的特征对齐会扰乱目标检测任务的训练,而作者提出的弱对齐不会降低性能。