显存的attention模型中,对于attention没有直接的监督信号,所以本文提出了两个模块,在attention的过程中加入了监督信号,如下图所示: 1)CCR使得模型能够关注到相关的区域(尽可能多地关注到相关区域--更多,high recall) 2)CCS使得模型能够区分出主体区域和背景区域(尽可能的关注到更相关的区域---更准,high precision) ...