三、LSKA的实现代码 模块完整介绍、个人总结、实现代码、模块改进、以及各模型添加步骤请访问如下地址: YOLOv10改进策略【注意力机制篇】| Large Separable Kernel Attention (LSKA) 大核可分离卷积注意力 二次创新PSA、C2fCIB
BiLevelRoutingAttention_nchw:这是一个针对 NCHW 格式输入的双层路由注意力实现,优化了输入格式以提高效率。 CoordAtt、TripletAttention、BAMBlock、EfficientAttention、LSKBlock、SEAttention、CPCA、MPCA、deformable_LKA、EffectiveSEModule、LSKA、SegNext_Attention、DAttention、FocusedLinearAttention 等类实现了不同的注意...
LSKA, SegNext_Attention, DAttention, MLCA, TransNeXt_AggregatedAttention, FocusedLinearAttention, LocalWindowAttention, ChannelAttention_HSFPN, ELA_HSFPN, CA_HSFPN, CAA_HSFPN, DySample, CARAFE, CAA, ELA, CAFM, AFGCAttention, EUCB, ContrastDrivenFeatureAggregation, FSA}: c2 = ch[f] args = ...
BiLevelRoutingAttention_nchw:这是一个针对 NCHW 格式输入的双层路由注意力实现,优化了输入格式以提高效率。 CoordAtt、TripletAttention、BAMBlock、EfficientAttention、LSKBlock、SEAttention、CPCA、MPCA、deformable_LKA、EffectiveSEModule、LSKA、SegNext_Attention、DAttention、FocusedLinearAttention 等类实现了不同的注意...