YOLOF-You Only Look One-level Feature
1. 摘要:
本文重新回顾了一阶段检测器中的特征金字塔网络(FPN),并指出FPN网络的成功在于他它面对目标检测中的优化问题时的“分而治之”方法。从优化角度看,为了处理这个问题,我们没有使用复杂的特征金字塔结构,而是引入了一个可替代的方法--只使用一级特征来进行检测。基于这个简单并且有效的方法,我们展示了我们的成果:You Only Look One-level Feature(YOLOF), 即你只用看一级特征。在我们的方法中,我们提出了两个关键的部分:"Dilated Encoder扩张的编码器"和“Uniform Matching统一匹配”,取得了可观的进步,
在COCO benchmark上,我们做了大量的实验证明了我们方法的有效性。我们的 YOLOF 与其特征金字塔对应的 RetinaNet 取得了可比的结果,同时速度提高了 2.5倍。 在没有transformer层的情况下,YOLOF 可以以单级特征的方式与 DETR 的性能相匹配,训练次数减少 7 个。 在 608*608 的图像尺寸下,YOLOF 在 2080Ti 上以 60 fps 的速度运行达到 44.3 mAP,比 YOlov4 快13%。 代码可在https://github.com/megvii-model/YOLOF。
paper: https://arxiv.org/abs/2103.09460
code: https://github.com/megvii-model/YOLOF
Towards Open World Object Detection
1. 摘要:
本模型跟人的直觉认识未知事物相关。启发本文作者提出一个新的计算机视觉问题叫做:开放世界中的目标检测。
这个模型的任务是:1)认识未标记过的未知类别对象。2)在不忘记之前类别的情况下,增量学习这些识别过的未知类目,且对应类别标签进步取得。
我们量化这个问题,引入了一个实实在在的评价标准并提出了一个非常新颖的解决方法,我们称之为:ORE:Open World Object Detector, 基于对比聚类和能量的未知类别。
我们的“实验评估”和“消融研究”分析了 ORE 在实现开放世界目标方面的功效。 作为一个有趣的副产品,我们发现识别和表征未知实例有助于减少增量对象检测设置中的混淆,在那里我们实现了最先进的性能,而无需额外的方法学努力。 我们希望我们的工作能够吸引对这个新的研究方向的进一步研究。
Paper: https://arxiv.org/abs/2103.02603
Code: https://github.com/JosephKJ/OWOD
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。