YOLO将目标检测任务转化为一个回归问题,在一次前向传播中预测多个目标的位置和类别,实现了高速度的目标检测。经过多年的发展,YOLO已经发展成为一系列具有良好性能的快速模型。 基于Anchor 框的YOLO方法包括YOLOv4,YOLOv5,和YOLOv7,而 Anchor 框自由方法有YOLOX和YOLOv6。考虑到这些检测器的性能, Anchor 框自由方法与...
本研究提出了一种以注意力机制为核心的YOLO框架——YOLOv12,在保持与先前CNN模型相当速度的同时,充分释放了注意力机制的性能优势。 YOLOv12在保持具有竞争力的推理速度下,其准确率超越了所有主流实时目标检测器。具体而言,YOLOv12-N在T4GPU上以1.64ms的推理延迟实现了40.6%的mAP,相较先进的YOLOv10-N/YOLOv11-N...
一、本文介绍本文记录的是利用 AssemFormer优化YOLOv11的目标检测网络模型。传统卷积和池化操作会导致信息丢失和压缩缺陷,且传统的注意力机制通常产生固定维度的注意力图,忽略了背景中的丰富上下文信息。本文的…
一、本文介绍本文记录的是利用 ACmix改进YOLOv11检测模型,卷积和自注意力是两种强大的表示学习技术,本文利用两者之间潜在的紧密关系,进行二次创新,实现优势互补,减少冗余,通过实验证明,实现模型有效涨点。 …
本文记录的是利用Contextual Transformer (CoT)模块优化YOLOv11的目标检测网络模型。CoT将静态上下文和自注意力学习动态上下文统一在一个架构中,有效地提升了在 2D 特征图上进行视觉表示学习时自注意力学习的能力,本文将深入研究CoT的原理,并将其应用到YOLOv11中,==进而更有效的增强模型对视觉信息的学习和表示能力。=...
改进YOLO:YOLOv5结合swin transformer文章参考于芒果大神,在自己的数据集上跑了一下,改了一些出现的错误。 一、配置yolov5_swin_transfomrer.yaml # Parameters nc: 10 # number of classes depth_multiple: 0.33 # model depth multiple width_multiple: 0.50 # layer channel multiple anchors: - [10,13, 16...
专栏链接:YOLOv8基础解析+创新改进+实战案例 介绍 摘要 我们提出了BoTNet,这是一种概念上简单但功能强大的骨干架构,结合了自注意力机制,用于图像分类、目标检测和实例分割等多个计算机视觉任务。通过仅在ResNet的最后三个瓶颈块中用全局自注意力替换空间卷积,并且没有其他更改,我们的方法显著提高了实例分割和目标检测...
专栏链接:YOLOv8基础解析+创新改进+实战案例 介绍 摘要 我们提出了BoTNet,这是一种概念上简单但功能强大的骨干架构,结合了自注意力机制,用于图像分类、目标检测和实例分割等多个计算机视觉任务。通过仅在ResNet的最后三个瓶颈块中用全局自注意力替换空间卷积,并且没有其他更改,我们的方法显著提高了实例分割和目标检测...
本文记录的是利用Contextual Transformer (CoT)模块优化YOLOv11的目标检测网络模型。CoT将静态上下文和自注意力学习动态上下文统一在一个架构中,有效地提升了在 2D 特征图上进行视觉表示学习时自注意力学习的能力,本文将深入研究CoT的原理,并将其应用到YOLOv11中,==进而更有效的增强模型对视觉信息的学习和表示能力。=...
Transformer在BoTNet中扮演什么角色? YOLOv8目标检测创新改进与实战案例专栏 介绍 image-20240724090953394 摘要 我们提出了BoTNet,这是一种概念上简单但功能强大的骨干架构,结合了自注意力机制,用于图像分类、目标检测和实例分割等多个计算机视觉任务。通过仅在ResNet的最后三个瓶颈块中用全局自注意力替换空间卷积,并且没有...