resnet加入SE注意力机制 resnet se 文章名称:《Densely Connected Convolutional Networks》 论文链接:https://arxiv.org/abs/1608.06993 代码链接:https://github.com/liuzhuang13/DenseNet这篇文章厉害了,继He Kaiming的ResNet(2015)之后,又一篇让人惊艳的文章。毕竟是CVPR2017的best paper resnet加入SE注意力机制 ...
间注意力的权重,式(3),就叫做像素归一化。像素注意力见图2,为了抑制不重要的特征,我们在损失函数中加入了一个正则化项,如(4)式: 3.实验 我们将NAM和SE,BAM,CBAM,TAM在ResNet和MobileNet上,在CIFAR100数据集和ImageNet数据集上进行了对比,我们对每种注意力机制都使用了同样的预处理和训练方式,对比结果表示,...