2.2 Focal Loss(FL) Focal Loss通过给较难分类的样本更高的权重。 Focal Loss 2.3 Class-balanced focal loss (CB) 给不同的label赋予不同的权重,从而降低head classes带来的冗余信息。 对于整体频率为n_{i}的标签,balance term为: r_{CB}=\frac{1-\beta}{1-\beta^{n_{i}}} \\ \beta \in [0,1...
该图还显示,中心损失帮助模型获得比交叉熵损失(CE)和焦点损失(Focal loss)都更低的 WFC 得分。详细信息可以在补充材料中找到。 较低的 CFC 会带来更好的 MaxCosine。MaxCosine 使用余弦相似度来识别分布外样本。因此,当低似然区域中的分布内样本较少(即困难样本较少)时,MaxCosine 的性能可能会更好。处理困难...
因此本文在交叉熵损失前添加一个调节因子形成: 函数是一个单调递减函数,本文选择Focal Loss。即为: 。 如Figure 2,用以控制hard-to-classify样本的权重。域分类器试图欺骗域分类器,即增加这个损失。因为easy-to-classify样本的梯度很小,所以此时不会对齐这类样本。弱全局域分类器的损失定义为:...
论文链接 这篇paper是解决Class imbalance问题的:也称为长尾问题(long tail),是指分类问题中数据集类别数不一致。在这种不平衡的数据集里进行学习,显然头部类别出现的频率高,所以学习的显然会比较充分,而尾…
1、关键点的分类,可以看成一个语义分割任务,作者采用了focal loss的变种,如下图所示 2、每个关键点的offset预测,每个关键点offset的真值如下式所示。作者采用smooth l1去优化 3、每个关键点的embedded vector预测,作者使用下式来优化embedded vector。让属于同一个物体的vector相似,不属于同一个物体的不相似 ...
仅仅使用focal loss 就使得 map 上升了 10.8%(25.6 to 36.4) context 向量(CTX)和局部特征对齐(L) 都是有效果的,进一步提高了MAP 与Source Only比较,BDC-Faster 和 DA-Faster 使得 performance 巨降,证明了在两个不同的域之间进行严格的特征对齐会扰乱目标检测任务的训练,而作者提出的弱对齐不会降低性能。