它旨在在大规模视觉预训练模型中增加参数数量,同时尽量不增加浮点运算(FLOPs),所以本文的DynamicConv被提出来了,使得网络在保持低FLOPs的同时增加参数量,在其提出的时候它也提出了一个新的模块hostModule,我勇其魔改C2f从而达到创新的目的,在V8n上其参数量仅有220W计算量为5.8GFLOPs,从而允许这些网络从大规模视觉预...
本文记录的是利用DynamicConv优化YOLOv10的目标检测网络模型。 在大规模训练中,模型的参数数量越多,FLOP也越高,但在一些对计算资源有限制的场景下,需要低FLOP的模型同时又希望模型能从大规模预训练中受益。传统的方法很难在增加参数的同时保持低FLOP,因此Dynamic convolution模块应运而生。本文详细研究了Dynamic convol...