CSPX:借鉴CSPNet,由三个CBM层和X个Res unint模块Concate组成。 SPP:采用1×1,5×5,9×9,13×13的最大池化的方式,进行多尺度融合。 2 改进内容 输入端:包括Mosaic数据增强、cmBN、SAT自对抗训练 bockbone:CSPDarknet53、Mish激活函数、Dropblock neck:SPP模块、FPN+PAN结构 head :训练时的损失函数CIOU_Loss...
CSPNet实际上是基于Densnet的思想,即首先将数据划分成Part 1和Part 2两部分,Part 2通过dense block发送副本到下一个阶段,接着将两个分支的信息在通道方向进行Concat拼接,最后再通过Transition层进一步融合。CSPNet思想可以和ResNet、ResNeXt和DenseNet结合,目前主流的有CSPResNext50 和CSPDarknet53两种改造Backbone网络。
交叉阶段部分连接(CSP)CSPNet 将密集模块的输入特征图分为了两部分。第一部分 x_₀’ 会绕过密集模块,成为下个过渡层的输入的一部分。第二部分 x_₀’’ 则会通过密集模块,如下图所示。这种新设计通过将输入分为两部分而降低了计算复杂度——此时仅有一部分输入会经过密集模块。CSPDarknet53 YOLOv4 使用...
1、其一是将DarknetConv2D的激活函数由LeakyReLU修改成了Mish,卷积块由DarknetConv2D_BN_Leaky变成了DarknetConv2D_BN_Mish。 Mish函数的公式与图像如下: 2、其二是将resblock_body的结构进行修改,使用了CSPnet结构。此时YOLOV4当中的Darknet53被修改成了CSPDarknet53。 CSPnet结构并不算复杂,就是将原来的残差块的...
本文是YOLOv4的原班人马(包含CSPNet一作与YOLOv4一作AB大神)在YOLO系列的继续扩展,从影响模型扩展的几个不同因素出发,提出了两种分别适合于低端GPU和高端GPU的YOLO。该文所提出的YOLO-large在MSCOCO取得前所未有的精度(已公开的研究成果中最佳),且可以保持实时推理;所提出的YOLO-tiny在RTX 2080Ti显卡上结合TensorRT...
YOLOv4借鉴了CSPNet(Cross Stage Partial Networks,跨阶段局部网络)的思想,对YOLOv3的Darknet53网络进行了改进,形成了全新的主干网路结构--CSPDarknet53; 采用CSP结构有如下几点好处: 1.加强CNN学习能力 2.删除计算瓶颈 3.减少内存成本 CSPNet实际上是基于Densnet的思想,即首先将数据划分成Part 1和Part 2两部分,...
CSPNet全称是Cross Stage Paritial Network,主要从网络结构设计的角度解决推理中从计算量很大的问题。 CSPNet的作者认为推理计算过高的问题是由于网络优化中的梯度信息重复导致的。 因此采用CSP模块先将基础层的特征映射划分为两部分,然后通过跨阶段层次结构将它们合并,在减少了计算量的同时可以保证准确率。
本文是YOLOv4的原班人马(包含CSPNet一作与YOLOv4一作AB大神)在YOLO系列的继续扩展,从影响模型扩展的几个不同因素出发,提出了两种分别适合于低端GPU和高端GPU的YOLO。 该文所提出的YOLO-large在MSCOCO取得前所未有的精度(已公开的研究成果中最佳),且可以保持实时推理;所提出的YOLO-tiny在RTX 2080Ti显卡上结合TensorR...
CSPNet全称是Cross Stage Paritial Network,主要从网络结构设计的角度解决推理中从计算量很大的问题。 CSPNet的作者认为推理计算过高的问题是由于网络优化中的梯度信息重复导致的。 因此采用CSP模块先将基础层的特征映射划分为两部分,然后通过跨阶段层次结构将它们合并,在减少了计算量的同时可以保证准确率。
左图就是像YOLOv3一样做一些残差块的堆叠,右图则是增加了CSPNet的结构,也就是将原来的残差块的堆叠进行了一个拆分,拆成左右两个部分,主干部分继续进行原来的残差堆叠,另一部分则是像一个残差边,经过少量的处理就直接连到了最后。 第二点:激活函数由原来的LeakyReLU改成Mish激活函数: ...