SE注意力机制是一种通道注意力机制,它是在SENet中提出的。SE模块是在channel维度上做attention或者gating操作,这种注意力机制让模型可以更加关注信息量最大的channel特征,而抑制那些不重要的channel特征。 SE注意力机制的优点是可以让模型可以更加关注信息量最大的channel特征,而抑制那些不重要的channel特征,从而提升准确率。
这是6.0版本的yolov5的骨干层,CoordAtt的位置可以换成以上任意一个注意力,其他参数不需要调整,傻瓜式复制粘贴,即可跑通。 以上就是具体将注意力添加至yolov5-6.0版本中的步骤。注意力模块并没有刻板规定一定要加在什么地方,使用者可随意调整。 接下来是理论部分。关于注意力的理论部分,各位博主大佬已经讲的非常细致...