通道注意力机制的结果如上图所示,他跟SENET这个通道注意力机制还有点不一样,CBAM的通道注意力机制模块,首先对输入的图像分别同时进行最大池化和平均池化两个处理,然后将最大池化和平均池化的结果分别输出共享的全连接层进行处理,然后将两者处理的结果进行叠加,然后使用Sigmoid函数缩放到(0-1)之间,作为通道注意力机制...
图像中的注意力机制详解 一、 前言 二、SENet——通道注意力机制 1. 论文介绍 SEBlock结构图: 摘要重点: SEBlock创新点: 2. 算法解读 3. Pytorch代码实现 4. 个人理解 三、ECANet——通道注意力机制(一维卷积替换SENet中的MLP) 1. 论文介绍 ECABlock主要结构图 摘要重点: ECABlock创新点 2. 论文解读 ...