该图还显示,中心损失帮助模型获得比交叉熵损失(CE)和焦点损失(Focal loss)都更低的 WFC 得分。详细信息可以在补充材料中找到。 较低的 CFC 会带来更好的 MaxCosine。MaxCosine 使用余弦相似度来识别分布外样本。因此,当低似然区域中的分布内样本较少(即困难样本较少)时,MaxCosine 的性能可能会更好。处理困难...
2.2 Focal Loss(FL) Focal Loss通过给较难分类的样本更高的权重。 Focal Loss 2.3 Class-balanced focal loss (CB) 给不同的label赋予不同的权重,从而降低head classes带来的冗余信息。 对于整体频率为n_{i}的标签,balance term为: r_{CB}=\frac{1-\beta}{1-\beta^{n_{i}}} \\ \beta \in [0,1...
论文链接 这篇paper是解决Class imbalance问题的:也称为长尾问题(long tail),是指分类问题中数据集类别数不一致。在这种不平衡的数据集里进行学习,显然头部类别出现的频率高,所以学习的显然会比较充分,而尾…
而传统的focal loss优化的目标是{0, 1}这样的离散值。因此该loss更加泛化一点(general) Quality Focal Loss就是上述的更加泛化的FocalLoss,其定义如下所示 上述公式的后部分是展开形式的交叉熵,系数是adaptive的,当预测是和真值接近的时候,系数小,当远的时候系数大。 Distribution Focal Loss 在本节我们主要介绍以下...
仅仅使用focal loss 就使得 map 上升了 10.8%(25.6 to 36.4) context 向量(CTX)和局部特征对齐(L) 都是有效果的,进一步提高了MAP 与Source Only比较,BDC-Faster 和 DA-Faster 使得 performance 巨降,证明了在两个不同的域之间进行严格的特征对齐会扰乱目标检测任务的训练,而作者提出的弱对齐不会降低性能。