简介:YOLOv11改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含C2PSA二次创新) 一、本文介绍 本文记录的是利用SeaFormer++模型中提出的Sea_Attention模块优化YOLOv11的目标检测网络模型。Sea_Attention利用挤压轴向注意力有效地提取全局语义信息,并通过细节增强核补充局部细节,优化...
在之前的 YOLO 版本基础上,YOLO11 在架构和训练上提供了显著的改进。在保持速度的同时提高性能的最重要的架构变化是增加了 C3K2 块、SPFF 模块和 C2PSA 块。 C3K2 块:这是在以前版本中引入的 CSP(Cross Stage Partial)块的增强。该模块使用不同的核大小(例如 3x3...
该模块还有助于保持速度。 2)颈部:C2PSA模块使用两个位置敏感注意模块。PSA模块在处理输入张量的同时,还处理位置敏感注意。它有助于选择性地关注更精细的细节。该模块还能合并输入张量和注意力层的输出。对特征图的不同部分进行操作的两个PSA模块被连接在一起。 YOLOv11使用C3K2模块代替YOLOv8的C2F模块。C3K2模块...
YOLOv11改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含C2PSA二次创新) Limiiiing 计算机视觉方向,SCI发表1 人赞同了该文章 一、本文介绍 本文记录的是利用SeaFormer++模型中提出的Sea_Attention模块优化YOLOv11的目标检测网络模型。Sea_Attention利用挤压轴向注意力有效地提取...
import PSABlock,C2PSA class MLCA(nn.Module): definit(self, in_size,local_size=5,gamma = 2, b = 1,local_weight=0.5): super(MLCA, self).init() AI检测代码解析 # ECA 计算方法 self.local_size=local_size self.gamma = gamma
YOLOv11改进策略【注意力机制篇】| Large Separable Kernel Attention (LSKA) 大核可分离卷积注意力 二次创新C2PSA、C3k2 一、本文介绍 本文记录的是利用LSKA 大核可分离卷积注意力模块优化YOLOv11的目标检测网络模型。LSKA结合了大卷积核的广阔感受野和可分离卷积的高效性,不仅降低计算复杂度和内存占用,而且提高了...
YOLOv11改进策略【Conv和Transformer】| 2023 引入CloFormer中的Clo block 双分支结构,融合高频低频信息(二次创新C2PSA) 一、本文介绍 本文记录的是利用CloFormer中的Clo block优化YOLOv11的网络模型。Clo block的作用在于采用双分支结构,同时包含了局部分支和全局分支,克服了现有轻量级模型在处理高频局部信息时的不足...
第二个创新点是提出C2PSA机制,如上图所示。其实就是在C2模块的基础上,引入了Attention机制,提出了一种PSA的模块,不过个人认为替换为卷积层的效果应该也不会差太多的。 第三个创新点是在原先的2个解耦分类检测头中,进一步增加了两个DWConv,提高了模型的特征提取能力。如上图所示。
YOLOv11在车辆检测领域引入了多项创新,使其在性能和实用性上有了显著提升。以下是一些主要的创新点: 🔧 架构优化:YOLOv11对基础架构进行了改进,特别是引入了C3k2和C2PSA模块,这些模块增强了模型的特征提取能力,提升了检测精度,同时保持了轻量级,优化了推理速度。
新增了 C2PSA 模块用于特征增强,其实就是一个小的 Self-Attention 作者:Onedroid 1 修复了yolov8 c2f最后一个卷积前既有concat,又有residual 的冗余问题. 具体看这个issue github.com/ultralytics/..., 官方采用的是抛弃concat,保留residual的操作,调整架构再训练,确实更有性价比。为什么c2f的设计不合理,有兴趣...