针对FCOS 风格的NanoDet,构建了Yolox-Nano网络结构。 从上表可以看出: (1)和Yolov4-Tiny相比,Yolox-Tiny在参数量下降1M的情况下,AP值实现了9个点的涨点。 (2)和NanoDet相比,Yolox-Nano在参数量下降,仅有0.91M的情况下,实现了1.8个点的涨点。 (3)因此可以看出,Yolox的整体设计,在轻量级模型方面,依然有很...
Tiny and Nano detectors 作者进一步缩小模型为 YOLOX-Tiny,以便与 YOLOv4-Tiny 进行比较。对于移动设备,采用深度卷积的方法构建了一个只有 0.91M参数 和 1.08G FLOPs 的 YOLOX-Nano 模型。如下表所示,YOLOX 在模型尺寸更小的情况下也比同类模型表现更加好。Model size and data augmentation 在实验中...
接下来可以用ncnnoptimize对模型进行优化,顺便转为 fp16 存储减小模型体积 ./ncnnoptimize ./onnx/yolox-nano-sim.param ./onnx/yolox-nano-sim.bin yolox-nano-sim.param yolox-nano-sim.bin 65536 前面两个参数是优化前的模型,后面两个是优化后的模型。 create_custom_layer YoloV5Focus fuse_convolution_...
(2)而当使用轻量级模型,比如YoloNano时,一方面只使用Mosaic数据增强,另一方面随机范围scale,设置在[0.5,1.5]之间,弱化Mosaic增广的性能。 3.3 Yolox的实现成果 3.3.1 精度速度对比 前面我们了解了Yolox的各种trick改进的原因以及原理,下面我们再整体看一下各种模型精度速度方面的对比: 左面的图片是相对比较标准的,网络...
关闭mosaic以及mixup数据增强后,训练yolo-Nano模型,验证集指标如下图: 可以观察到,最优mAP@50大约为0.91,并且在160epoch后指标就在0.9左右震荡。因此完全关闭数据增强,也并非最优选择。 弱化数据增强训练模型 经过上述实验,我考虑保留但弱化数据增强,具体方式为: degrees=5 mosaic_scale = (0.8, 1.2) 从ecoch 215...
设计了Yolox-Nano、Yolox-Tiny轻量级网络,并测试了一些trick的适用性; 总体来说,论文中做了很多的工作,下面和大家一起,从以上的角度,对Yolox算法的网络结构,以及各个创新点进行讲解。 3.2.1 基准模型:Yolov3_spp 在设计算法时,为了对比改进trick的好坏,常常需要选择基准的模型算法。
具体来说,当训练诸如 YOLOX-S、 YOLOX-Tiny、YOLOX-Nano 这种小模型时,需要去除混合增强并弱化 mosaic(将扩展范围从 [0.1, 2.0] 降到 [0.5, 1.5])。这种改进将 YOLOX-Nano 的 AP 从 24.0% 提高到 25.3%。与 SOTA 结果对比 下表 6 为 YOLOX 与 SOTA 检测器的对比结果。在 COCO 2017 ...
本文的Yolox算法,也从这个角度出发,将Yolox模型,变为多种可选配的网络,比如标准网络结构和轻量级网络结构。 (1)标准网络结构:Yolox-s、Yolox-m、Yolox-l、Yolox-x、Yolox-Darknet53。 (2)轻量级网络结构:Yolox-Nano、Yolox-Tiny。 在实际的项目中,大家可以根据不同项目需求,进行挑选使用。
Yolox-Nano是Yolox系列最小的结构,网络参数只有0.91M。 此处放上netron打开的,Yolox-Nano网络结构可视图的地址,点击查看。 https://blog.csdn.net/nan355655600/article/details/119329864 (2)Yolox-Tiny 此处放上Yolox-Tiny网络结构可视图的地址,点击查看。
一、模型转换pytorch->onnx 使用ncnn部署,模型转换的步骤还是:pytorch ->onnx -> ncnn,所以第一步需要将pytorch框架下训练的模型先转成onnx,然后在通过onnx转成ncnn进行部署。部署的时候在两台机器上操作,一是我的电脑主机,用于pytorch到onnx的模型转换及onnx模型简化,二是nano,用来编译ncnn及一些cpp代码修改和...