BlendMask是一阶段的密集实例分割方法,结合了Top-down和Bottom-up的方法的思路。它通过在anchor-free检测模型FCOS的基础上增加了Bottom Module提取low-level的细节特征,并在instance-level上预测一个attention;借鉴FCIS和YOLACT的融合方法,作者提出了Blender模块来更好地融合这两种特征。最终,BlendMask在COCO上的精度(41.3AP...
具体来说,作者将检测分支得到的注意力区块与BlendMask分支得到的基础特征按元素相乘,然后再相加合成,得到最终的实例分割结果。这种Blend过程既能够保留Top-down方法的定位精度,又能够利用Bottom-up方法的细节和上下文信息,从而实现了高精度和实时性的平衡。 为了验证BlendMask算法的性能,作者在COCO test-dev数据集上进行了...
作者是在SOTA 目标检测算法FCOS基础上改进得到BlendMask,下图橙色部分为实例分割的检测分支,绿色部分为使用FPN特征预测的一组bases。 检测分支得到目标包围框和attns注意力区块,其和Bottom 模块的结果Bases 经Blender模块blend成最终的分割结果。 下图为Bases 和 attentions 结果示意图: 实验结果 作者将BlendMask 与其他SOTA...
作者是在SOTA 目标检测算法FCOS基础上改进得到BlendMask,下图橙色部分为实例分割的检测分支,绿色部分为使用FPN特征预测的一组bases。 检测分支得到目标包围框和attns注意力区块,其和Bottom 模块的结果Bases 经Blender模块blend成最终的分割结果。 下图为Bases 和 attentions 结果示意图: 实验结果 作者将BlendMask 与其他SOTA...
BlendMask通过更合理的blender模块融合top level和low level的语义信息来提取更准确的实例分割特征,该模型效果达到state of the art,但结构十分精简,推理速度也不慢,精度最高能到41.3AP,实时版本BlendMask RT性能和速度分别为34.2mAP和2
Top层在检测输出时,通过额外的卷积层生成注意力A,其维度为N*(K'M'M)*Hl*Wl,其中M值较小,仅比传统top-down方法小。Blender模块利用注意力和位置敏感的基础来生成最终预测。实验部分详尽,如对比不同融合特征策略(Blender vs. YOLACT vs. FCIS)、分辨率设置、基础数量K的选择以及特征提取位置等...
实例分割(Instance Segmentation)是视觉经典四个任务中相对最难的一个,它既具备语义分割(Semantic Segmentation)的特点,需要做到像素层面上的分类,也具备目标检测(Object Detection)的一部分特点,即需要定位出不同实例,即使它们是同一种类。因此,实例分割的研究长期以来都有着两条线,分别是自下而上的基于语义分割的方法...
实例分割之BlendMask 这次继续来沈春华老师团队文章,BlendMask。这次使用的方法是有效结合底层的语义信息和实例层的信息来获得更优的效果。主要的贡献是从top-down 和bottom-up两方面方法来获得灵感设计的Blender module模块。 本文取得的成绩: 设计了一个灵活的龃龉proposal 的方法...
BlendMask模型的框架与原理解析 BlendMask模型在实例分割、全景分割等任务上的应用 课程简介 实例分割,是机器自动从图像中用目标检测的方法框出不同的实例,然后用语义分割的方法在不同的实例区域内进行逐像素标记的过程。简单的理解就是:在同一个类的实例中区分不同的实例。在计算机视觉的任务中,由于实例分割是像素级...
上图展示了Blend过程,BlendMask分支得到的Bases和检测分支得到的attns注意力结果,一一对应按元素相乘再相加合成,得到最终的实例分割结果。 网络架构 作者是在SOTA 目标检测算法FCOS基础上改进得到BlendMask,下图橙色部分为实例分割的检测分支,绿色部分为使用FPN特征预测的一组bases。