快手提出双图层实例分割,大幅提升遮挡处理性能 |CVPR 2021
快手提出双图层实例分割,大幅提升遮挡处理性能 |CVPR 2021
文 | 轩飞
编辑 | 陈大鑫
本文转载自快手音视频技术部
物体的互相遮挡在日常生活中普遍存在,严重的遮挡易带来易混淆的遮挡边界及非连续自然的物体形状,从而导致当前已有的检测及分割等的算法性能大幅下降。
香港科技大学联合快手在本文中通过将图像建模为两个重叠图层,为网络引入物体间的遮挡与被遮挡关系,从而提出了一个轻量级的能有效处理遮挡的实例分割算法。目前该论论文已经被CVPR 2021接收。
论文地址| https://arxiv.org/pdf/2103.12340.pdf
论文代码|https://github.com/lkeab/BCNet
1
摘要
由于物体的真实轮廓和遮挡边界之间通常没有区别,对高度重叠的对象进行分割是非常具有挑战性的。与之前的自顶向下的实例分割方法不同,本文提出遮挡感知下的双图层实例分割网络BCNet,将图像中的感兴趣区域(Region of Interest,RoI)建模为两个重叠图层,其中顶部图层检测遮挡对象,而底图层推理被部分遮挡的目标物体。
双图层结构的显式建模自然地将遮挡和被遮挡物体的边界解耦,并在Mask预测的同时考虑遮挡关系的相互影响。作者在具有不同主干和网络层选择的One-stage和Two-stage目标检测器上验证了双层解耦的效果,显著改善了现有图像实例分割模型在处理复杂遮挡物体的表现,并在COCO和KINS数据集上均取得总体性能的大幅提升。
2
背景
实例分割(Instance Segmentation)是图像及视频场景理解的基础任务,该任务将物体检测与语义分割有机结合,不仅需要预测出输入图像的每一个像素点是否属于物体,还需将不同的物体所包含的像素点区分开。
目前,实例分割技术已经大规模地应用在短视频编辑、视频会议、医学影像、自动驾驶等领域中, 下图展示了在自动驾驶场景下其对周边车辆的位置感知:
3
问题
以Mask R-CNN为代表的实例分割方法通常遵循先检测再分割(Detect-then-segment)的范例,即先获取感兴趣目标检测框,然后对区域内的像素进行Mask预测,在COCO数据集取得了领先性能并在工业界得到广泛应用。
我们注意到大多数后续改进算法如PANet、HTC、BlendMask、CenterMask等均着重于设计更好的网络骨干(Backbone)、高低层特征的融合机制或级联结构(Cascade Structure),而忽视了掩膜预测分支(Mask Regression Head)的作用。
同时,如图1所示的重叠人群,大面积的实例分割错误都是由于同一感兴趣区域(RoI)中包含的重叠物体混淆了不同物体的真实轮廓,特别是当遮挡和被遮挡目标都属于相同类别或纹理颜色相似。
图1 高度遮挡下的实例分割结果对比
4
成果
近日,香港科技大学联合快手对图像实例分割当下性能瓶颈进行了深入剖析,该研究通过将图像中感兴趣区域(RoI)建模为两个重叠图层(如图2示),并提出遮挡感知下的双图层实例分割网络BCNet,顶层GCN层检测遮挡对象,底层GCN层推理被部分遮挡的目标物体。
通过显式建模自然地将遮挡和被遮挡物体的边界解耦,并在mask预测的同时考虑遮挡关系的相互影响,显著改善了现有实例分割模型在处理复杂遮挡物体时的表现,在COCO和KINS数据集上均取得领先性能。
图2 遮挡物和被遮挡物的双图层分解示意简图
5
意义
物体互相遮挡在日常生活中普遍存在,严重的遮挡会带来易混淆的遮挡边界及非连续自然的物体形状,从而导致当前已有的检测及分割等的算法的性能大幅下降。
该研究系统提出了一个轻量级且能有效处理遮挡的实例分割算法,在工业界也具有极大意义。随着短视频作为主要信息传播媒介不断渗透进日常生活,在实际的物体分割应用场景中,分割的准确性直接影响着用户的使用体验和产品观感。因此,如何将实例分割技术应用在复杂的日常应用场景并保持高精度,此项研究给出了一个合理、有效的解决方案。
BCNet的结构框架
整个分割系统分为两个部分,物体检测部分和物体分割部分,算法流程如下图:
图3 BCNet的网络结构
BCNet与其他经典网络结构对比
我们的提出的复杂遮挡下的图像分割算法,基于已有的双阶段分割模型,将传统的单个的全卷积(Fully Convolution)掩膜预测分支网络替换成由双图层级联构成的图神经网络(Graph Convolutional Network)模型,在感兴趣目标区域(RoI)中,前图层建模输出遮挡物体(Occluder)的位置和形状,后图层在前图层基础上最终输出相应的被遮挡物体(Occludee)的Mask,从而让实例分割算法在遮挡情况下仍然能够保持高运行速度和服务器端的高速度。
如下是BCNet与其它经典网络结构设计对比图:
图4 分割网络结构设计对比
实验和对比
作者在三个数据集包括COCO、COCOA以及KINS上对算法进行了验证,大量的定量实验结果(表1和表2,包含Modal Segmentation和Amodal Segmentation)表明BCNet在不过度增加网络参数和预测耗时的基础上,结合现有的One-stage和Two-stage物体检测器上均能取得较大的性能提升,优于CenterMask、BlendMask以及多阶段Cascade的HTC等现有算法,尤其是对于存在遮挡的物体。
同时,表3证明双图层结构在两个完全的全卷积网络(pure FCN)图层中依然有效。
表1 在COCO-test-dev上的对比结果,
BCNet性能大幅优于BlendMask、CenterMask等网络
表2 在COCO-Val、COCOA和KINS数据集上的对比结果
表3 对双图层结构(bilayer structure)的有效性验证
另外,作者也提供了不同数据集下的可视化对比结果。
对于COCO数据集,在图5和图6中可以看到即使在复杂的遮挡情况下,BCNet也能给出较为鲁棒的预测结果,而且通过分别可视化前图层和后图层对遮挡物和被遮挡物的Boundary和Mask的建模结果,使得BCNet的预测较以往算法具有更强的可解释性。
图7和图8提供了对于Amodal Segmentation下的KINS和COCOA数据集的实例分割效果对比。
图5 基于FCOS检测器,COCO上CenterMask(第一行)和BCNet(第二行)的可视化结果对比。最下面一行显示了由两个GCN图层分别预测的遮挡物和被遮挡物的轮廓以及掩膜,从而使得BCNet的最终分割结果比以前的方法更具可解释性。
图6基于Faster R-CNN检测器,COCO上Mask Scoring R-CNN(第一行)和BCNet(第二行)的可视化结果对比
图7 KINS数据集上,ASN(第一行)和BCNet(第二行)的可视化结果(amodal)对比
图8 COCOA(左)及KINS(右)上的更多结果(amodal)对比
更多BCNet的实现和实验细节可参考论文和开源代码,图5到图8可视化部分基于的对比算法来源如下:
[1] Lee, Youngwan, and Jongyoul Park. "Centermask: Real-time anchor-free instance segmentation." In CVPR, 2020.
[2] Huang Z, Huang L, Gong Y, et al. Mask scoring r-cnn. In CVPR, 2019.
[3] Qi L, Jiang L, Liu S, et al. Amodal instance segmentation with kins dataset. In CVPR, 2019.
[4] Follmann, Patrick, et al. "Learning to see the invisible: End-to-end trainable amodal instance segmentation." In WACV, 2019.
原文链接:CVPR系列(二)—— 双图层实例分割,大幅提升遮挡处理性能
由于微信公众号试行乱序推送,您可能不再能准时收到的推送。为了第一时间收到的报道, 请将“”设为星标账号在看”。
传奇114搜服网 http://www.cityruyi.com/lm-4/lm-1/1177.html
- 标签:久草网新免费资源在线
- 编辑:王智
- 相关文章
-
快手提出双图层实例分割,大幅提升遮挡处理性能 |CVPR 2021
快手提出双图层实例分割,大幅提升遮挡处理性能 |CVPR 2021 文 | 轩飞 编辑 | 陈大鑫 本文转载自快手音视频技术部 物体的互相遮挡…
-
电脑打不动生化危机8?1080p配置推荐,矿潮下怎么配才省心省钱?
啥都不说了,一句话,贵妇是真的顶啊!咳咳~言归正传,《 生化危机8》作为经典IP系列的最新续作,瞬间火爆 steam简直就是分分钟的事情。同…
- 面对500篇 GNN 论文,心态差点儿崩了,幸好我有这本小书
- DeepMind亲解ICLR杰出论文:博弈论作为大规模数据分析的引擎
- 这5个数学猜想最早在30年前提出,如今AI证明它们都错了
- 东芝冰箱雾语系列抢先体验: " 恒湿保鲜 "黑科技是如何实现的?
- 雷神声波电动牙刷、啤酒发售; vivo X60曲面屏版将上市