Anchor-Free总结

article/2025/9/15 8:46:47
目录
  • Anchor-Free综述
    • 一. CornerNet
      • 1.1 概述
      • 1.2 模块介绍
        • 1.2.1 Heatmap
        • 1.2.2 Offset
        • 1.2.3 Grouping Corners
        • 1.2.4 Corner Pooling
      • 1.3 总结
    • 二. CenterNet
      • 2.1 概述
      • 2.2 Center-Regression
    • 三. FCOS
      • 3.1. 概述
      • 3.2. 模块介绍
        • 3.2.1 论文思路简介
        • 3.3.2 回归形式
      • 3.3 参考文献
    • 四 ATSS
    • 五.GFLV1
      • 5.1. 论文简介
      • 5.2. 模块详解
        • 5.2.1 谈谈分布
        • 5.2.2 分类Loss
        • 5.2.3 回归Loss
      • 5.3. 参考文献
    • 六. GFLV2
      • 6.1 概述

Anchor-Free综述

一. CornerNet

论文国内地址

1.1 概述

这是第一篇将anchor-freemAP值刷入COCO榜单的论文,主要贡献是将keypoints的估计方式引入目标检测之中。

主要创新点:

  • 使用Heatmap表示目标的坐标left-top、right-bottom
  • 增加Offset使得定位更加精确
  • 使用Embeddings使得两个关键点匹配
  • 使用left、right、top、bottom pooling层增加目标边缘的定位准确度

1.2 模块介绍

1.2.1 Heatmap

​ 使用两个Heatmaps表示一个目标的左上角和右下角点,例如:\(Left\_top=B \times C \times W \times H\) ,其中 \(C\) 表示目标类别,同理右下角点完全相同。对于每一个像素,这是一个分类问题,使用focal-loss去除类别不均衡问题。对于focal-loss而言,类别非0即1,然后Heatmap是使用Gaussian-map生成的,周围的点都是 \(value \in [0-1]\)。下图展示了,label周围的点实际也是较好的定位点,不应该直接归结为背景,而且给予一定的权重,基于此得重新设计loss函数

其中 \(y_{cij}=1\) 的时候和focal-loss相同,\(y_{cij}<1\) 的时候使用 \(1-y_{cij}\) 作为减少惩罚,如下公式(1)所示

\[\begin{equation}L_{d e t}=\frac{-1}{N} \sum_{c=1}^{C} \sum_{i=1}^{H} \sum_{j=1}^{W}\left\{\begin{array}{cl}\left(1-p_{c i j}\right)^{\alpha} \log \left(p_{c i j}\right) & \text { if } y_{c i j}=1 \\ \left(1-y_{c i j}\right)^{\beta}\left(p_{c i j}\right)^{\alpha} \log \left(1-p_{c i j}\right) & \text { otherwise }\end{array}\right.\end{equation} \]

1.2.2 Offset

当前的网络都会进行Downsample or Upsample的操作,使用heatmap最明显的两个缺点:1)计算量比较大,2)精度不准确。对于前者,这里不讨论,可以参考人体关键点期望分布进行解决。后者是这里解决的方案,直接学习一个offset参数去解决

\[\boldsymbol{o}_{k}=\left(\frac{x_{k}}{n}-\left\lfloor\frac{x_{k}}{n}\right\rfloor, \frac{y_{k}}{n}-\left\lfloor\frac{y_{k}}{n}\right\rfloor\right) \]

这里比较简单,不再赘述直接使用SmoothL1-Loss计算即可

\[\begin{equation}L_{o f f}=\frac{1}{N} \sum_{k=1}^{N} \operatorname{SmoothL} 1 \operatorname{Loss}\left(\boldsymbol{o}_{k}, \hat{\boldsymbol{o}}_{k}\right)\end{equation} \]

1.2.3 Grouping Corners

此处方法参考论文:Associative Embedding

已经学习到多组两个角点的位置,如何将其对应?和Offset处理方式类似,直接使用一个参数(一组参数)去编码当前关键点的组ID信息

比如:Left-top点的heatmap维度为 \(B\times C \times W \times H\)Embedding的维度为 \(B\times W \times H \times N\) ,其中\(C\)为种类信息,\(N\)为维度信息,这样就为每个目标设定了一个长度为\(N\)vector信息。当然可以使用\(N\times M \times K...\) 等多维度信息去表示。

\[\begin{equation}L_{\text {pull }}=\frac{1}{N} \sum_{k=1}^{N}\left[\left(e_{t_{k}}-e_{k}\right)^{2}+\left(e_{b_{k}}-e_{k}\right)^{2}\right]\end{equation} \]
\[\begin{equation}L_{p u s h}=\frac{1}{N(N-1)} \sum_{k=1}^{N} \sum_{j=1 \atop j \neq k}^{N} \max \left(0, \Delta-\left|e_{k}-e_{j}\right|\right)\end{equation} \]
#https://github.com/zzzxxxttt/pytorch_simple_CornerNet/blob/767bf0af3229d9ffc1679aebdbf5eb05671bbc75/utils/losses.py#L34
def _ae_loss(embd0s, embd1s, mask):num = mask.sum(dim=1, keepdim=True).float()  # [B, 1]pull, push = 0, 0for embd0, embd1 in zip(embd0s, embd1s):embd0 = embd0.squeeze()  # [B, num_obj]embd1 = embd1.squeeze()  # [B, num_obj]embd_mean = (embd0 + embd1) / 2embd0 = torch.pow(embd0 - embd_mean, 2) / (num + 1e-4)embd0 = embd0[mask].sum()embd1 = torch.pow(embd1 - embd_mean, 2) / (num + 1e-4)embd1 = embd1[mask].sum()pull += embd0 + embd1push_mask = (mask[:, None, :] + mask[:, :, None]) == 2  # [B, num_obj, num_obj]dist = F.relu(1 - (embd_mean[:, None, :] - embd_mean[:, :, None]).abs(), inplace=True)dist = dist - 1 / (num[:, :, None] + 1e-4)  # substract diagonal elementsdist = dist / ((num - 1) * num + 1e-4)[:, :, None]  # total num element is n*n-npush += dist[push_mask].sum()return pull / len(embd0s), push / len(embd0s)

1.2.4 Corner Pooling

由于两个角点光靠局部位置很难确定,对比maskbbox的区别。这里使用创新的pooling层去解决这个问题。其实按照现在流行的做法,使用Non-localSE模块去处理可能会更好。做法非常简单,但需要自己写cuda层实现。

![](https://img2020.cnblogs.com/blog/1033571/202103/1033571-20210316201633245-125011928.png)
\[\begin{equation}t_{i j}=\left\{\begin{array}{cc}\max \left(f_{t_{i j}}, t_{(i+1) j}\right) & \text { if } i<H \\ f_{t_{H j}} & \text { otherwise }\end{array}\right.\end{equation} \]
\[\begin{equation}l_{i j}=\left\{\begin{array}{cl}\max \left(f_{l_{i j}}, l_{i(j+1)}\right) & \text { if } j<W \\ f_{l_{i W}} & \text { otherwise }\end{array}\right.\end{equation} \]

1.3 总结

此论文是开创性的,位置毋庸置疑。

缺点也是一目了然-->>

二. CenterNet

2.1 概述

基于CornerNet的改进版本,主要贡献是速度快精度准,当时是用在移动端利器

主要创新点:

  • 使用中心点代替角点,直接回归长宽
  • 使用Offset(CornerNet已经存在)
  • 使得增加属性非常容易,比如depthdirection......

2.2 Center-Regression

对于CornerNet来说,回归两个角点+回归Offset+回归分组信息+NMS,显得特别繁琐,而且计算很慢!这里对其进行如下改进:

  1. 使用中心点和 \(W、H\) 代替两个角点
  2. 依然回归Offset对位置精度弥补
  3. 去除分组对齐
  4. 去除NMS

由于其核心是使用目标的中心点进行的操作,所以添加其它属性非常方便,如上图中的方向、关键点、深度......

三. FCOS

3.1. 概述

主要做的贡献如下(可能之前有人已提出):

  1. FPN分阶段回归
  2. Center-ness Loss

3.2. 模块介绍

3.2.1 论文思路简介

论文整体比较简单,直接从头读到尾没有什么障碍,好像Anchor-free的文章都比较简单。下面直接以模块介绍。

文章中 \(l^*、b^*、r^*、t^*\) 表示label,\(l、b、r、t\) 表示predict

3.3.2 回归形式

文章直接回归 \(l、r、b、t、c\) 其中 \(c\) 表示种类,前面四个在上图中有表示。

回归采用正负样本形式:

  • \(feature map\) 表示回归的特征图(以 \(M\) 表示)
  • \(M_{i,j}\) 表示 \((i,j)\) 个点的特征值
  • \(M_{i,j}\) 映射到原图,假设当前特征图的总步长是 \(S\) (和原图比例),则原图点\(P_{i,j} =(\frac{S}{2}+M{i}*S,\frac{S}{2}+M{j}*S)\)
  • \(P_{i,j}\) 落入哪个label区域,就负责回归哪个label,算作正样本。落到外部则算作负样本。
  • 如果落在重复区域,按照上图的形式(哪个面积小,就负责哪个label)

文章采用FPN结构,用于提高召回率和精确度。参考Anchor-based(不同尺度的Anchor负责不同大小的目标),文章对不同的层进行限制目标大小:其中\(M_{1}、M_{2}、...M_{6} = 0、64、128、256、 512\),按照 \(M_{i}<(l^*、b^*、r^*、t^*)<M_{i-1}\) 形式进行分配。

最后文章发现一个问题,NMS时候出现很多和最终目标接近的框,我们希望的是:负样本和正样本区分明显,而不是很多接近正样本的框(比如分类,虽然可以正确分类,但是出现很多 \(conf=0.45\) 的目标,我们希望出现\(conf_{pos}=0.99,conf_{neg}=0.11\))。

文章通过设置 \(center\) 进行控制,对于那些中心偏离的目标进行抑制。我们不仅仅要IOU好,也要center好。文章通过新建一个新的分支进行center-ness进行回归。

\[\begin{equation}enterness $^{*}=\sqrt{\frac{\min \left(l^{*}, r^{*}\right)}{\max \left(l^{*}, r^{*}\right)}} \times \frac{\min \left(t^{*}, b^{*}\right)}{\max \left(t^{*}, b^{*}\right)}\end{equation} \]

3.3 参考文献

  • 原始论文
  • FCOS改进

四 ATSS

此论文对比anchor-freeanchor-base的区别,从而在anchor-base上提出一套自动计算anchor的工具。使用较少,这里略过。

五.GFLV1

5.1. 论文简介

将目标检测Loss和评价指标统一,提升检测精度。这是一篇挺好的论文,下面会将其拓展到其它领域。

主要做的贡献如下(可能之前有人已提出):

  1. 分类Loss+评价指标
  2. Regression分布推广到一般性

5.2. 模块详解

5.2.1 谈谈分布

  1. 什么是分布?表示一个数发生的概率,设 \(f=P(x)\) 表示分布函数,\(f\) 表示发生的概率,\(x\) 可能存在的数。1)显而易见,\(\int_{-\infty}^{+\infty}P(x)dx=1\),所有的数存在概率总和为1。 2)\(y=\int_{-\infty}^{+\infty}P(x)*xdx\) ,它的整体期望(平均值)肯定是等于目标值的。
  2. 什么是 \(Dirac\) 分布? reference ,\(f=\delta(x-\mu)\) , 当 \(x=\mu\) 概率为1,其它都是0。这是什么意思?此分布简称为绝对分布,只要是直接求目标的,都属于此分布。比如:1)直接计算 \(one-hot\) 交叉熵 \(label=[0,0,0,1],pred=[0.2,0.1,0.1,0.6]\),我们的目的就是两者相等,其它的值都是不存在的。你问我按照\(Delta\) 分布应该其他值为0才对啊,那loss=0(实际loss为什么不是0)怎么回传呢?记住Loss和分布不是一个概念,Loss是我们用一种方式使得结果达到理想分布,分布是一种理想的状态,简单点说 \(Loss \to Sample\)。2)那么直接进行BBox回归也是一种 \(Delta\) 分布,因为都是预测一个值,然后直接和Label进行smoothL1计算Loss。
  3. 什么是 \(Gaussian\) 分布,这个不多说大家都知道。\(Gaussian-YOLO\)\(Heatmap\) 都是属于此分布。举个例子:刚开始做关键点(当前小模型人脸也是这样做的)直接使用坐标 \((x,y)\) 进行回归,显然这是属于 \(Delta\) 分布的,后面人们将其改进为 \(Heatmap\),这就是将分布改为 \(Gaussian\),所以称为\(Gaussian-Heatmap\) .
  4. 什么是任意分布?只满足分布的两个条件,没有具体的公式。直接使用期望和Label进行计算Loss即可。
  5. 进一步理解Loss和分布的关系,期望和Label计算Loss(前向推导使用期望做结果),中间概率和期望计算Loss(使得输出按照一定分布进行,容易收敛提高精度)。

5.2.2 分类Loss

  • 具体由来见:论文作者知乎回答

笔者给出简短说明:

  • 先去看一下FCOS论文,其中使用 \(center-ness\) 计算预测框质量,两个作用:1)训练时抑制质量较差的框。2)前向计算时用于NMS操作指标。
  • 问题来了。。。训练阶段、前向计算、评价指标没有统一?
  • 论文魔改一下Focal-Loss、center-ness统一为一个Loss
  • 此部分比较简单,基本和FCOS类似

# 代码出自mmdetection
@weighted_loss
def quality_focal_loss(pred, target, beta=2.0):"""Quality Focal Loss (QFL) is fromGeneralized Focal Loss: Learning Qualified and Distributed Bounding Boxesfor Dense Object Detectionhttps://arxiv.org/abs/2006.04388Args:pred (torch.Tensor): Predicted joint representation of classificationand quality (IoU) estimation with shape (N, C), C is the number ofclasses.target (tuple([torch.Tensor])): Target category label with shape (N,)and target quality label with shape (N,).beta (float): The beta parameter for calculating the modulating factor.Defaults to 2.0.Return:torch.Tensor: Loss tensor with shape (N,)."""assert len(target) == 2, """target for QFL must be a tuple of two elements,including category label and quality label, respectively"""# label denotes the category id, score denotes the quality scorelabel, score = target# negatives are supervised by 0 quality scorepred_sigmoid = pred.sigmoid()scale_factor = pred_sigmoidzerolabel = scale_factor.new_zeros(pred.shape)loss = F.binary_cross_entropy_with_logits(pred, zerolabel, reduction='none') * scale_factor.pow(beta)# FG cat_id: [0, num_classes -1], BG cat_id: num_classesbg_class_ind = pred.size(1)pos = ((label >= 0) & (label < bg_class_ind)).nonzero().squeeze(1)pos_label = label[pos].long()# positives are supervised by bbox quality (IoU) scorescale_factor = score[pos] - pred_sigmoid[pos, pos_label]loss[pos, pos_label] = F.binary_cross_entropy_with_logits(pred[pos, pos_label], score[pos],reduction='none') * scale_factor.abs().pow(beta)loss = loss.sum(dim=1, keepdim=False)return loss

5.2.3 回归Loss

主要包括两个部分:

  • \(Delta\) 分布推广到任意分布

    • 论文公式(3)是 \(Delta\) 分布的期望,公式(4)和(5)是任意分布的期望
    • 直接预测多个(论文设置为16)值,求期望得到最佳值
    • TIPS: 效果肯定比 \(Delta\) 分布好,但是计算量会增加。小模型一般不适用,大模型使用较多。
  • 限制任意分布

    • 任意分布会过于离散,实际真实的值距离label都不会太远
    • 限制分布范围,论文公式(6)
    • TIPS: 按照公式推导应该效果好(正在推广到关键点检测),使用任意分布的都可以加上试试。
# 代码出自mmdetection
@weighted_loss
def distribution_focal_loss(pred, label):"""Distribution Focal Loss (DFL) is fromGeneralized Focal Loss: Learning Qualified and Distributed Bounding Boxesfor Dense Object Detectionhttps://arxiv.org/abs/2006.04388Args:pred (torch.Tensor): Predicted general distribution of bounding boxes(before softmax) with shape (N, n+1), n is the max value of theintegral set `{0, ..., n}` in paper.label (torch.Tensor): Target distance label for bounding boxes withshape (N,).Return:torch.Tensor: Loss tensor with shape (N,)."""# 完全按照论文公式(6)所示,label是真实值(目标框和anchor之间的偏差,参考FCOS)# pred的shape(偏差*分布),如果没有后面的分布,那就变成delta分布dis_left = label.long() # label范围[0,正无穷],感觉这里应该-1然后限制一下范围最好。作者说long()向下取整,但是这解决不了对称问题。dis_right = dis_left + 1weight_left = dis_right.float() - labelweight_right = label - dis_left.float()loss = F.cross_entropy(pred, dis_left, reduction='none') * weight_left \+ F.cross_entropy(pred, dis_right, reduction='none') * weight_rightreturn loss

5.3. 参考文献

  • 原始论文
  • 分布参考一
  • 分布参考二
  • 论文原理理解参考
  • 论文代码理解参考

六. GFLV2

6.1 概述

这篇论文非常非常的简单,类似加入了一个全局信息的SENet模块、或者说Non-Local模块,读懂GFLV1之后,马上解决V2的问题。

此方法在小模型上不适合,在大模型上涨点明显。可以进一步推广,此方案用在大模型non-share Head中,而小模型都是共享Head的。


http://chatgpt.dhexx.cn/article/S0DaFAju.shtml

相关文章

【AI面试】Anchor based 、 Anchor free 和 no anchor 的辨析

深度学习的目标检测算法,通常会在输入图像中采样大量的区域,然后判断这些区域中是否包含我们感兴趣的目标,并调整(回归)区域边界,从而更准确地预测目标的真实边界框(ground-truth bounding box)。 目标检测算法会需要做两个事情: 推荐区域框是否有目标(positive or …

一文读懂anchor-base和anchor-free

1. 从Faster-RCNN看Anchor Faster-RCNN相对于Fast-RCNN的一个改进是引入了RPN网络&#xff0c;RPN用于区域推荐&#xff0c;替换了此前的SS算法使得网络在整体上更加的CNN化。那么RPN是怎么进行区域推荐的&#xff1f; 简单来说RPN先列举出数万个矩形框&#xff0c;然后用卷积…

目标检测3--AnchorFree的FCOS

文章目录 1.介绍2.FCOS中使用的方法2.1 网络结构2.2FCOS中使用FPN的多级预测2.3FCOS中的中心度 3.mmdetection中FCOS源码参考资料 欢迎访问个人网络日志&#x1f339;&#x1f339;知行空间&#x1f339;&#x1f339; 1.介绍 论文:《FCOS: Fully Convolutional One-Stage Obj…

浅谈Anchor-Free发展历程

1.早期探索&#xff1a; DenseBox: https://arxiv.org/abs/1509.04874 YOLO: https://arxiv.org/abs/1506.02640 2.基于关键点&#xff1a; CornerNet: https://arxiv.org/abs/1808.01244 ExtremeNet: https://arxiv.org/abs/1901.08043 3.密集预测: FSAF: https://arxiv.org/a…

Anchor-Free系列之FCOS:A Simple and Strong Anchor-free Object Detector

Anchor-Free系列之CornerNet: Detecting Objects as Paired Keypoints_程大海的博客-CSDN博客 Anchor-Free系列之CenterNet&#xff1a;Objects as Points_程大海的博客-CSDN博客 Anchor-Free系列之FCOS&#xff1a;A Simple and Strong Anchor-free Object Detector_程大海的…

Anchor Based和Anchor Free

Anchor Based和Anchor Free之间区别主要有以下两点&#xff1a;1.分类差异&#xff08;关键正负样本定义&#xff09;2.回归差异 1.分类差异&#xff1a; 现阶段的算法多尺度预测&#xff0c;即GT是由哪一个特征层和位置Anchor预测。 Anchor Based是由IoU来确定哪层和哪个位置…

解读《Bridging the Gap Between Anchor-based and Anchor-free Detection》

张士峰大佬近期发了一篇论文解读Anchor-base和Anchor-free方法间的差别&#xff0c;其本质在于正负样本的选取方式不同。 论文&#xff1a;《Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection》 链接&#xff1a;ht…

anchor-free方法总结

cornernet&#xff0c;centernet&#xff0c;onenet&#xff0c;fcos 这几篇论文的引用关系&#xff08;提出先后顺序&#xff09;&#xff1a; 将按照上面的顺序&#xff0c;从背景、标签分配等方面说明区别于联系。 一、背景&#xff1a; Cornernet&#xff1a;认为使用a…

anchor free和anchor base

仅供个人学习使用 1、anchor base anchor base的方法需要先在图片上生成候选框&#xff0c;无论是RPN生成还是通过k-means生成的先验框&#xff0c;都需要在分类回归之前有存在的框可使用。在框的基础上进行之后的操作。 超参数较为难调&#xff0c;正负样本不平衡&#xff…

Anchor free的心得

问题&#xff1a; 没有了Anchor框的监督信息&#xff0c;我们怎么针对检测任务做到正确回归&#xff1f; 本质&#xff1a;样本与ground truth的对应&#xff0c;如何选择合适样本与真实场景对应 Anchor&#xff1a; 其加入降低了回归问题难度&#xff0c;为分类问题提供选择…

Anchor-based 与 Anchor-free

参考 Anchor-based 与 Anchor-free - 云社区 - 腾讯云 1. Feature Selective Anchor-Free Module for Single-Shot Object Detection 参考&#xff1a;CVPR2019 | CMU提出Single-Shot目标检测最强算法&#xff1a;FSAF 2. FCOS: Fully Convolutional One-Stage Object Det…

Anchor-free

找到了一个说在工业领域很好的 目标检测 下面几篇paper有异曲同工之妙&#xff0c;开启了anchor-based和anchor-free的轮回。 1. Feature Selective Anchor-Free Module for Single-Shot Object Detection 2. FCOS: Fully Convolutional One-Stage Object Detection 3. Fo…

AnchorFree系列算法详解

目录 前言一、Anchor-Based方法回顾二、Anchor Free系列方法简介1. Anchor Free系列算法历史2. Anchor free经典算法详解2.1. 基于关键点的Anchor Free检测算法1. CornerNet 2. 2 基于中心的Anchor Free检测算法1. FCOS2. CenterNet3. TTFNet -- CenterNet的改进版 3. AnchorFr…

目标检测算法——anchor free

一、anchor free 概述 1 、 先要知道anchor 是什么&#xff08;这需要先了解二阶段如faster rcnn&#xff0c;一阶检测器如YOLO V2以后或SSD等&#xff09;。 在过去&#xff0c;目标检测通常被建模为对候选框的分类和回归&#xff0c;不过&#xff0c;按照候选区域的产生方式不…

Scala解释器

Scala解释器 后续我们会使用scala解释器来学习scala基本语法&#xff0c;scala解释器像Linux命令一样&#xff0c;执行一条代码&#xff0c;马上就可以让我们看到执行结果&#xff0c;用来测试比较方便。 启动scala解释器 要启动scala解释器&#xff0c;只需要以下几步&…

Pycharm修改python解释器

Pycharm修改python解释器 在python学习过程中&#xff0c;遇到了这样的一个问题&#xff0c;早先通过pip安装的库在pycharm中无法使用&#xff0c;例如之前学习的numpy库在pycharm中无法调用&#xff1a; 下面给出两个解决办法 1.通过pycharm自带的方式再次进行安装 具体操作…

【jvm系列-07】深入理解执行引擎,解释器、JIT即时编译器

JVM系列整体栏目 内容链接地址【一】初识虚拟机与java虚拟机https://blog.csdn.net/zhenghuishengq/article/details/129544460【二】jvm的类加载子系统以及jclasslib的基本使用https://blog.csdn.net/zhenghuishengq/article/details/129610963【三】运行时私有区域之虚拟机栈…

java的解释器是什么_java编译器和java解释器、JVM

作用: JVM:JVM有自己完善的硬件架构,如处理器、堆栈(Stack)、寄存器等,还具有相应的指令系统(字节码就是一种指令格式)。JVM屏蔽了与具体操作系统平台相关的信息,使得Java程序只需要生成在Java虚拟机上运行的目标代码(字节码),就可以在多种平台上不加修改地运行。JVM是Ja…

【详解】JVM中,编译器和解释器的作用和区别

一、前言 随着互联网的发展&#xff0c;现在虚拟机地表最稳定&#xff0c;最强的默认是Hotspot虚拟机。先查看下&#xff1a; 查看方式&#xff1a;cmd进行黑框框&#xff0c;然后输入&#xff1a;java -version 会出现以下参数&#xff1a; java version&#xff1a;当前jav…

pycharm查看解释器

1.查看pycharm的解释器&#xff1a; 2.查看自己现在这个项目的解释器