盘点热门的目标检测开源方案(附论文+代码下载)

在2020年中,目标检测领域出现了许多优秀的工作,今天我们来聊一聊在当前热门的五大目标检测开源方案。

 

1、五大改进,二十多项技巧实验,堪称最强目标检测万花筒:YOLOv4&YOLOv5

论文:YOLOv4: Optimal Speed and Accuracy of Object Detection

COCO AP:55.4

论文地址:https://arxiv.org/pdf/2004.10934.pdf

代码地址:https://github.com/AlexeyAB/darknet

YOLOv5:https://github.com/ultralytics/yolov5

 

(非官方)源码地址:

  (1) Pytorch版:https://github.com/WongKinYiu/PyTorch_YOLOv4

  (2) tensorflow版:https://github.com/ultralytics/yolov5

 

YOLOv4试验对比了大量的近几年来最新的深度学习技巧,例如  Swish、Mish激活函数,CutOut和CutMix数据增强方法,DropPath和DropBlock正则化方法,也提出了自己的创新,例如 Mosaic (马赛克) 和 自对抗训练数据增强方法,提出了修改版本的 SAM 和 PAN,跨Batch的批归一化(BN),共五大改进。所以说该文章工作非常扎实,也极具创新。

YOLOv5的工作与YOLOv4十分相近,大家可以看我们往期的YOLOv5教程:

YOLOv5从入门到部署之:初识YOLOv5

YOLOv5从入门到部署之:数据读取与扩增

YOLOv5从入门到部署之:网络和损失函数

YOLOv5从入门到部署之:训练私有数据并修改模型

YOLOv5从入门到部署之:模型部署

YOLOv4的网络结构图:

盘点热门的目标检测开源方案(附论文+代码下载)

 

2、基于Transformer的目标检测新范式: DETR

 

论文:End-to-End Object Detection with Transformers

论文地址:https://arxiv.org/abs/2006.02334

代码地址:https://github.com/facebookresearch/detr

 

DETR将检测视为集合预测问题,简化了目标检测的整体流程。它没有现在主流的目标检测器中的anchor、label assign、nms等操作,做到了真正的end-to-end。它主要采用了Transformer的编解码结构,它在序列预测任务上大获成功。Transformer中的自注意力机制显示地界定了序列中元素间的相互作用,因此可以用于约束集合的预测结果。

DETR的检测思路是首先使用CNN提取图像特征,然后用transformer模型来检测物体输出set of box predictions ,训练过程采用二分图匹配损失函数。

盘点热门的目标检测开源方案(附论文+代码下载)

具体细节可以看我们往期的教程:

 

DETR: Postprocessing-free Detector

 

通过代码学习Transformer

 

一文掌握Hungarian Algorithm

 

CV中的Attention和Self-Attention

 

【20210109期 AI周报】该重视 Vision Transformer 了

 

 

 

3、目前最高最快最小模型,可扩缩且高效的目标检测: EfficientDet

论文:EfficientDet: Scalable and Efficient Object Detection

论文地址:https://arxiv.org/abs/2005.12872

代码地址:https://github.com/google/automl

 

COCO AP: 51.0 

(非官方)源码地址:

  (1) Pytorch版:https://github.com/toandaominh1997/EfficientDet.Pytorch

  (2) Keras&&TensorFlow版:https://github.com/xuannianz/EfficientDet

 

EfficientDet一大创新点是改进了FPN中的多尺度特征融合方式,提出了加权双向特征金字塔网络BiFPN。BiFPN 引入了一种自顶向下的路径,融合P3~P7的多尺度特征, 并且EfficientDet认为FPN中各尺度的特征重要性是不同的,故在BiFPN特征融合的连接中需要加权,而权值是在训练中学习得到的。EfficientDet引入了 EfficientNet 中模型缩放的思想,考虑Input size、backbone Network、BiFPN侧向级联层数、Box/class 层深度作为搜索空间,通过统一的系数缩放(具体方法见原论文),得到了8个不同计算量和参数量的模型。

盘点热门的目标检测开源方案(附论文+代码下载)

 

参考阅读:EfficientDet 算法解读

https://zhuanlan.zhihu.com/p/93241232

 

4、CenterNet2以56.4mAP超越当前所有检测模型

 

论文:Probabilistic two-stage detection

论文地址:https://arxiv.org/abs/2103.07461

代码地址:https://github.com/xingyizhou/CenterNet2

 

COCO AP:  56.4

CenterNet2在目前最先进的One-Stage检测器的基础上建立了一个概率Two-Stage检测器。对于每一阶段的检测,CenterNet2模型都会提取区域级特征并进行分类。在第2阶段使用更快的R-CNN或级联分类器。这两个阶段一起训练,以最大限度地提高预测的概率准确度。在推理中,CenterNet2使用这个最终的对数似然作为检测得分。

结构说明:

盘点热门的目标检测开源方案(附论文+代码下载)

 

参考阅读:Centernet 算法解读

 

5、特征金字塔与空洞卷积完美结合的目标检测:DetectoRS

 

论文:DetectoRS: Detecting Objects with Recursive Feature Pyramid and Switchable Atrous Convolution

论文地址:https://arxiv.org/abs/2005.12872

代码地址:https://github.com/joe-siyuan-qiao/DetectoRS

 

COCO AP: 54.7 AP

DetectoRS是谷歌团队提出的目标检测模型,论文中探讨了目标检测中looking and thinking twice的机制,在宏观上提出了递归特征金字塔RFN(Recursive Feature Pyramid),就是把FPN的输出先连接到bottom up那儿进行再次输入,然后再输出时候与原FPN的输出再进行结合一起输出。在微观上提出了可切换空洞卷积SAC(Switchable Atrous Convolution)。在COCO test-dev中取得了SOTA的结果,目标检测box mAP达到54.7,实例分割mask mAP达到47.1,全景分割PQ达到49.6。

盘点热门的目标检测开源方案(附论文+代码下载)

 

参考阅读:DetectoRS算法解读

原文​​​​​​​

 

上一篇:pytorch-YoloV5学习笔记


下一篇:【深度学习】yolov5 可视化训练结果以及result.txt解析