简单讲一下这篇文章的思路。
目前我们所有的检测算法大部分都是依赖于一个backbone网络,也就是传统大家说的ImageNet based model。但是ImageNet的base model往往是针对分类问题来train的,如果直接用来做detection/segmentation/skeleton等相关任务,其实是有比较明显的gap的。
最简单来讲,detection/segmentation等往往需要做pixel-level的定位,所以需要有尽可能大的feature map的spatial resolution。但是传统分类网络往往越卷越小,最后一个global average pool或者fc把所有spatial信息融合在一起,所以对空间信息的保存是非常不友好的。
传统大家做法是在ImageNet base model上面打补丁,比如加U-shape结构等。但是往往丢了的spatial很难被补回来。我们这篇工作希望是抛砖引玉,首先需要说明的是,我们在往这个方面努力,希望设计一个对detection/segmentation友好的网络,但是确实这个问题还是有许多需要改进的地方。
具体做法大家可以看paper细节。从结果上面来看,我们在只替换backbone网络的情况下,以更小的复杂度(少了近一倍)做到了更高的结果(超过一个多点)。无论是COCO的object detection还是instance segmentation上面,这个结果应该都是很impressive的。
最后,宣传一下我们最近的一些工作。
比如我们组去年做COCO skeleton第一的paper, 我们已经放出了完整的code
另外,我们之前的一个detection工作Light-head RCNN也放了code: