每次的下采样的过程中加入了通道注意力和空间注意力(大概就是这样) 代码跑出来后,效果比原来的U-Net大概提升了一个点左右,证明是有效的,改动很少,放出代码 classChannelAttentionModule(nn.Module):def__init__(self,channel,ratio=16):super(ChannelAttentionModule,self).__init__()self.avg_pool=nn.Adaptive...
由于在大部分情况下我们感兴趣的区域只是图像中的一小部分,因此空间注意力的本质就是定位目标并进行一些变换或者获取权重。 2 通道注意力机制 对于输入2维图像的CNN来说,一个维度是图像的尺度空间,即长宽,另一个维度就是通道,因此基于通道的Attention也是很常用的机制。 SENet(Sequeeze and Excitation Net)[3]是2017...