例如端侧通用检测模型常用的MobileNet系列,就有多个版本(部分精度及延时对比见下表)。 我们统一使用了半监督学习知识蒸馏预训练的MobileNetV3,最终各检测模型在COCO mAP上均获得了0.7%~1.5%的精度提升。以YOLOv3为例,用MobileNetV3替换MobileNetV1作为主干网络,COCO的精度从29.3提升到31.4,而且骁龙855芯片上推理时延从18...
以MobileNetv3-YOLOv3模型为例,开发者可以在千帆大模型开发与服务平台上,利用平台提供的剪枝、量化等工具,对模型进行压缩和加速。同时,通过平台的自动化调参功能,可以快速找到最优的模型参数配置,进一步提升模型的性能。 五、总结 通过剪裁、量化、知识蒸馏等技巧以及一系列优化策略的应用,飞桨工程师成功地将MobileNetv3-...
就CV而言,知识蒸馏的有效性在分类任务已获得大量验证,但目前在检测领域的应用还相对较少。我们在YOLOv3的检测头优化过程中尝试了蒸馏方式来fine tune剪裁后的模型,使用精度更高的YOLOv3-ResNet34模型作为teacher模型,对YOLOv3-MobileNetV3模型进行蒸馏。最终的实验结果表明,在COCO数据集上可以获得2-3个点的精度收益。
Summary:一文看懂OpenCV 4.0所有新特性 Author:Amusi Date:2018-12-21 微信公众号:CVer github:https://github.com/amusi 原文链接:重磅!MobileNet-YOLOv3来了(含三种框架开源代码)前戏本文介绍一类开源…
重磅!MobileNet-YOLOv3来了(含三种框架开源代码),前戏本文介绍一类开源项目:MobileNet-YOLOv3。其中分享Caffe、Keras和MXNet三家框架实现的开源项目。看名字,就知道是MobileNet作为YOLOv3的backbone,这类思路屡见不鲜,比如典型的MobileNet-SSD。当然了,MobileNet-Y
而这样的检测效果,只需要1.3MB大小的YOLO-Fastest模型,相比于3.0MB的MobileNet-YOLOv3,参数少了65%,速度还要快上45%。 如果硬件要求没那么高,相比之下,还是精度更重要的话,这里的YOLO-Fastest-XL会更加适合。 这个“加大版”YOLO-Fastest算法是一个3.5MB的算法模型,mAP要高上不少,达到了68.8%。 整...
测试数据表明,MobileNetv1-YOLOv3在移动端不同设备上提速约127%~137%。表9 ImageNet分类模型部署在服务端和移动端的部分性能 09 轻量级接口设计,实现各策略解耦,大大缩短编码耗时 PaddleSlim1.0实现了全新接口设计,通过算法独立实现不同压缩方法之间的代码解耦,每个方法既可独立使用,又可混合使用,大大缩短了...
上图展示了 One-Shot 网络结构搜索原理,相比之前方法一块 V100 GPU 需要 42 天 才能完成,One-Shot 只需要 4 天。其获得的收益是,相比 MobileNet V2,搜索出的网络在计算量(FLOPs)上少了 20%。作为成熟的瘦身框架,它势必与部署联系在一起,我们压缩模型不就是为了方便在各种设备上使用么?PaddleSlim 1.0...
测试数据表明,MobileNetv1-YOLOv3 在移动端不同设备上提速约127%~137%。 ▲表9 ImageNet 分类模型部署在服务端和移动端的部分性能 轻量级接口设计,实现各策略解耦 大大缩短编码耗时 PaddleSlim 1.0实现了全新接口设计,通过算法独立实现不同压缩方法之间的代码解耦,每个方法既可独立使用,又可混合使用,大大缩短了编码...
看名字,就知道是MobileNet作为YOLOv3的backbone,这类思路屡见不鲜,比如典型的MobileNet-SSD。当然了,MobileNet-YOLOv3讲真还是第一次听说。 MobileNet和YOLOv3 MobileNet MobileNet目前有v1和v2两个版本,毋庸置疑,肯定v2版本更强。但本文介绍的项目暂时都是v1版本的,当然后续再加入v2应该不是很难。这里只简单介绍Mobile...