yolov7正负样本分配详解
来源:知乎—骚骚骚
地址:https://zhuanlan.zhihu.com/p/543160484
整体上在正负样本分配中,yolov7的策略算是yolov5和YOLOX的结合。
首先大概回顾一下yolov5和YOLOX正负样本分配。
由于笔者能力有限,文章中可能出现一些错误,欢迎大家指出。
01
yolov5正负样本分配策略
在我之前的文章中有详细介绍:
https://zhuanlan.zhihu.com/p/477598659
步骤:
步骤①:anchors和gt匹配,看哪些gt是当前特征图的正样本
步骤②:将当前特征图的正样本分配给对应的grid
图1:实线网格代表特征图。虚线代表将一个特征点grid分为四个象限。蓝色点代表gt的中心点所处位置。
那么其特点是:
①anchor base。
②一个gt可能会和多个anchor进行匹配。
③某个anchor与gt匹配上,都会在当前anchor上有3个正样本。(理论上如果有9个anchor,那么一个gt至多可能生成9*3=27个正样本)
02
YOLOX正负样本分配策略
在我之前的文章中有详细介绍:
https://zhuanlan.zhihu.com/p/394392992
图2:盗图自旷视公众号
那么其特点是:
①anchor free。
②simOTA能够做到自动的分析每个gt要拥有多少个正样本。
③能自动决定每个gt要从哪个特征图来检测。
03
yolov7正负样本分配策略
首先,yolov7也仍然是anchor base的目标检测算法,yolov7将yolov5和YOLOX中的正负样本分配策略进行结合,流程如下:
①yolov5:使用yolov5正负样本分配策略分配正样本。
②YOLOX:计算每个样本对每个GT的Reg+Cla loss(Loss aware)
③YOLOX:使用每个GT的预测样本确定它需要分配到的正样本数(Dynamic k)
④YOLOX:为每个GT取loss最小的前dynamic k个样本作为正样本
⑤YOLOX:人工去掉同一个样本被分配到多个GT的正样本的情况(全局信息)
其实主要是将simOTA中的第一步“使用中心先验”替换成“yolov5中的策略”。
代码中也大量的复用了yolov5和YOLOX中的源码。
个人感觉,yolov5策略与YOLOX中simOTA策略的融合,相较于只使用yolov5策略,加入了loss aware,利用当前模型的表现,能够再进行一次精筛。而融合策略相较于只使用YOLOX中simOTA,能够提供更精确的先验知识。
yolov6等工作中也都使用了simOTA作为分配策略,可见simOTA确实是能带来很大提升的策略。
04
yolov7中AUX HEAD
图3:yolov7论文中对于aux head的介绍
yolov7中的p6 model中都使用了aux head。
论文中提到使用aux head与lead head共同进行模型优化,而aux head的标签是较为“粗糙的“。
通过查看源码,发现aux head的assigner和lead head的assigner仅存在很少的不同,包括:
①lead head中每个anchor与gt如果匹配上,分配3个正样本,而aux head分配5个。
②lead head中将top10个样本iou求和取整,而aux head中取top20。
这也印证了论文中的观点。aux head不那么strong,aux head更关注于recall,而lead head从aux head中精准筛选出样本。
图4:yolov7论文中对于aux head的介绍
按照yolov7中的这个正负样本分配方式,那么针对图5中,蓝色点代表着gt所处的位置,实线组成的网格代表着特征图grid,虚线代表着一个grid分成了4个象限以进行正负样本分配(不理解的需要去看下yolov5的assign方式)。
如果一个gt位于蓝点位置,那么在lead head中,黄色grid将成为正样本。在aux head中,黄色+橙色grid将成为正样本。
图5:训练时,lead head和aux head中正样本分配图示(蓝色点代表着gt所处的位置,实线组成的网格代表着特征图grid,虚线代表着一个grid分成了4个象限以进行正负样本分配。如果一个gt位于蓝点位置,那么在lead head中,黄色grid将成为正样本。在aux head中,黄色+橙色grid将成为正样本)
而在推理时,下图6中,蓝色点代表着gt所处的位置,实线组成的网格代表着特征图grid,虚线代表着一个grid分成了4个象限,而依照yolov5中的中心点回归方式,仅能将图中红色特征grid,预测在图中红色+蓝色区域,是根本无法将中心点预测到gt处的!而该红色特征grid在训练时是会作为正样本的。
在aux head中,模型也并没有针对这种情况对回归方式作出更改。所以其实在aux head中,即使被分配为正样本的区域,经过不断的学习,可能仍然无法完全拟合至效果特别好。
图6:推理时,红色grid可推理出的cx、cy范围(蓝色点代表着gt所处的位置,实线组成的网格代表着特征图grid,虚线代表着一个grid分成了4个象限)
而在loss融合方面,aux head loss 和lead head loss 按照0.25:1的比例进行融合。
猜您喜欢:
戳我,查看GAN的系列专辑~!
一顿午饭外卖,成为CV视觉前沿弄潮儿!
CVPR 2022 | 25+方向、最新50篇GAN论文
ICCV 2021 | 35个主题GAN论文汇总
超110篇!CVPR 2021最全GAN论文梳理
超100篇!CVPR 2020最全GAN论文梳理
拆解组新的GAN:解耦表征MixNMatch
StarGAN第2版:多域多样性图像生成
附下载 | 《可解释的机器学习》中文版
附下载 |《TensorFlow 2.0 深度学习算法实战》
附下载 |《计算机视觉中的数学方法》分享
《基于深度学习的表面缺陷检测方法综述》
《零样本图像分类综述: 十年进展》
《基于深度神经网络的少样本学习综述》
更多推荐
所有评论(0)