通过分析边界框回归模型,inner_iou论文中发现区分不同的回归样本,并使用不同尺度的辅助边界框来计算损失,可以有效加速边界框回归过程。对于高IoU样本,使用较小的辅助边界框计算损失可加速收敛,而较大的辅助边界框适用于低IoU样本。 本文将RT-DETR默认的CIoU损失函数修改成inner_IoU、inner_GIoU、inner_DI
一、本文介绍本文记录的是改进RT-DETR的损失函数,将其替换成Shape-IoU。现有边界框回归方法通常考虑 真实GT(Ground Truth)框与预测框之间的几何关系,通过边界框的相对位置和形状计算损失,但忽略了边界框本身…
RT-DETR默认的激活函数是Silu,通过引入了非线性因素,使网络能够学习和拟合更复杂的函数关系,但在处理梯度消失问题上能力相对较弱,且稳定性会受到输入值和网络参数的较大影响。而ARelu激活函数,通过注意力模块学习元素级别的残差,对于激活的输入能够有效放大从下游传播的梯度,从而缓解梯度消失问题。在面对复杂多样的数据...
减少高质量锚框的竞争力,同时降低低质量样本产生的有害梯度,使WIoU能够专注于普通质量的锚框,从而提高检测器的整体性能。 专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进 专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点...
来自专栏 · RT-DETR改进策略 一、本文介绍 本文记录的是基于NWD的RT-DETR的损失函数改进方法研究。目前的IoU-Loss在一些情况下不能提供梯度来优化网络,例如当预测边界框P和真实边界框G没有重叠(即 |P∩G|=0),或者P完全包含G或反之(即 |P∩G|=P 或G),而这两种情况在微小物体检测中非常常见。CIoU和DIoU...
一、本文介绍本文记录的是改进RT-DETR的损失函数,将其替换成Focaler-IoU。现有研究通过利用边界框之间的几何关系来提高回归性能,但忽略了困难样本和简单样本分布对边界框回归的影响。不同检测任务中困难样本和简…
本文记录的是基于NWD的RT-DETR的损失函数改进方法研究。目前的IoU-Loss在一些情况下不能提供梯度来优化网络,例如当预测边界框P和真实边界框G没有重叠(即|P∩G|=0),或者P完全包含G或反之(即|P∩G|=P或G),而这两种情况在微小物体检测中非常常见。CIoU和DIoU虽然能处理上述两种情况,但它们基于IoU,对微小物体的...
简介:RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU) 一、背景: 现有基于IoU的边界框回归方法主要通过添加新的损失项来加速收敛,忽略了IoU损失项本身的局限性,且在不同检测器和检测任务中不能自我调整,泛化性不强。
来自专栏 · RT-DETR改进策略 一、背景 现有问题:大多数现有工作假设训练数据中的样本都是高质量的,专注于增强边界框回归损失的拟合能力。然而,在低质量样本上盲目增强边界框回归会损害定位性能。 解决思路:本文使用Wise-IoU,其动态非单调FM使用异常值程度而非IoU来评估锚框的质量,并提供一种有效的梯度增益分配策略...
一、RT-DETR激活函数 SiLU激活函数 SiLU函数的公式定义为: SiLU(x)=x⋅ Sigmoid(x) 其中 Sigmoid(x)=11+e−x是常见的S型非线性函数。 特性 非线性:SiLU函数能够将线性关系转换为非线性关系,这对于神经网络学习复杂模式至关重要。 连续可导:在整个定义域内都是可微的,这使得在反向传播过程中的梯度计算更加...