准确率、召回率和mAP、AP50/75

article/2025/10/7 21:38:30

1、准确率和召回率

真实值与预测值之间的关系如下左图所示,右图是二者之间的一个直观表示,同时也能清晰的看出准确率和召回率的具体含义。准确率 P P P 给出了“预测为真值的样本中确实有多少比例为真值”,召回率 R R R 则给出了“本来就是真值的样本模型预测出来了多少”。所以,准确率也称为“查准率”,它说明的是预测真值中有多少是对的;召回率也称为“查全率”,它说明的是真实真值中有多少被找到了。在这里插入图片描述准确率(precision)和召回率(recall)作为统计值,各自的计算方式(实例计算方式看这里): P = T P T P + F P R = T P T P + F N P=\frac{TP}{TP+FP} \\ R=\frac{TP}{TP+FN} P=TP+FPTPR=TP+FNTP一般来说, P P P R R R 是相互制约的,一个越高另一个就越低,统计上用 P R PR PR 曲线来描述二者的关系。在这里插入图片描述对于一个抽样集合,模型的预测值和真实值都是确定的, P P P R R R 也应该是一个确定的值,为什么会出现一条曲线?实际上如果是一个 b a t c h = 128 batch=128 batch=128 的集合,我们并不是直接计算128个样本的 P / R P/R P/R,而是按照每个样本的置信度概率将它们从大到小排序,然后从第一个样本开始计算 P / R P/R P/R,然后加入第二个再计算 P / R P/R P/R,以此类推;这样 R R R 的值就会一步步增大、逐渐接近1,而 P P P 则逐渐下降,这也意味着模型的预测中有 F P FP FP 的出现。
这里,在将样本一个个加入计算集合的过程中, R R R 的值可能不变(也就是没有 T P TP TP 出现),但是 P P P 的值却发生改变(出现了 F P FP FP),这导致一个 R R R 对应多个 P P P,这时我们只将最大的 P P P 值考虑进来(同一 R R R 值取最大 P P P 值)。

PR曲线反映了模型对正例的识别准确度和识别覆盖能力之间的权衡。

从以上 P R PR PR 曲线的性质可以看出,如果模型 A A A P R PR PR 曲线包含了模型 B B B P R PR PR 曲线,那么模型 A A A 的性能要优于 B B B。但是如果二者发生交叉呢?下图就是实际应用中会经常看到的一组模型性能对比图。在这里插入图片描述如果 P / R P/R P/R 值都很高,很难直接通过 P R PR PR 曲线去比较哪个模型更好时,可以用 F 1 F1 F1 值来替代衡量: F 1 = 2 P R P + R F1=\frac{2PR}{P+R} F1=P+R2PR另外,也可以观察平衡点 P = R P=R P=R,二者相等时的取值越大表明模型性能越好。

2、mAP

在论文中经常见到一种参数是 m A P mAP mAP(平均均值精度),常见的目标检测数据集 VOC/COCO都是以此为衡量标准,它跟 P R PR PR 曲线息息相关。先看一下 A P AP AP 的计算,以2010年为界它有两种不同的计算方法,现在更常用的是第二种:

  1. 2010年以前:针对某一分类将召回率 R R R 等距划分为十一个值 [ 0 , 0.1 , 0.2 , . . . , 1 ] [0,0.1,0.2,...,1] [0,0.1,0.2,...,1],对于每一个 R R R 值计算对应的最大准确率 P P P(从 P R PR PR 曲线就可以查到),然后对这十一个 P P P 值求均值,也就是 A v e r a g e P r e c i s i o n Average Precision AveragePrecision
  2. 2010年以后:针对某一分类 n n n 个样本,假设它有 m m m 个正例,每一个正例就对应一个召回率 R R R 值( 1 / m , 2 / m , . . . , 1 1/m,2/m,...,1 1/m,2/m,...,1),对每一个召回率计算最大准确率 P P P,然后对这 m m m P P P 值求均值。 A P = 1 m ∑ i m P i = 1 m ∗ P 1 + 1 m ∗ P 2 + ⋯ + 1 m ∗ P m = ∫ P ( R ) d R AP=\frac{1}{m}\displaystyle\sum_i^m{P_i}=\frac{1}{m}*P_1+\frac{1}{m}*P_2+\dots+\frac{1}{m}*P_m=\int{P(R)}dR AP=m1imPi=m1P1+m1P2++m1Pm=P(R)dR

注意到 A P AP AP 是针对于某一个类的,而一个数据集往往包含相当多的分类,对数据集所有类的 A P AP AP 求均值就得到 m A P mAP mAP m A P = 1 C ∑ j C A P j mAP=\frac{1}{C}{\displaystyle\sum_j^C{AP}_j} mAP=C1jCAPj所以, m A P mAP mAP 中: P P P 代表一个样本的最大准确率, A P AP AP 代表一类样本的平均准确率, m A P mAP mAP 就是数据集的平均准确率。

3、COCO数据集中的AP/AP50/AP75

对于图像分类任务, m A P mAP mAP 针对的就是类识别准确率,但是在目标检测任务中还有一个边框回归任务,框的准确率一般用交并比来 I o U IoU IoU 衡量。COCO数据集目标检测评价指标中, A P / A P 50 / A P 75 AP/AP50/AP75 AP/AP50/AP75 指的是 A P I o U = 0.5 : 0.05 : 0.95 / A P I o U = 0.5 / A P I o U = 0.75 AP^{IoU=0.5:0.05:0.95}/AP^{IoU=0.5}/AP^{IoU=0.75} APIoU=0.5:0.05:0.95/APIoU=0.5/APIoU=0.75 I o U = . 50 : . 05 : . 95 IoU=.50:.05:.95 IoU=.50:.05:.95 指的是交并比从0.5开始间隔0.05一直取值到0.95,然后求均值。
在这里插入图片描述
具体实例:
在这里插入图片描述


http://chatgpt.dhexx.cn/article/48ihxBRC.shtml

相关文章

如何区分精确率(precision)、准确率(accuracy)和召回率(recall)

理解精确率(precision)、准确率(accuracy)和召回率(recall) 正样本 负样本 预测正例 TP FP 预测反例 FN TN TN,预测是负样本,预测对了 FP,预测是正样本,预测错了 FN,预测是负样本&am…

pytorch_cifar10 学习记录(91%准确率)

目录 一、首次尝试深度学习 1.1训练参数 网络结构: 1.2训练结果 1.3 总结 二、修改网络和学习率,初次使用GPU炼丹(kaggle线上炼丹) 2.1训练参数 三、cifar10数据增强后进行炼丹 3.1 参数设置 3.2训练记录 3.2.1 0-100轮…

精度评定中的准确率(Precision)和召回率(Recall)

在模式识别中,我们经常会使用到一些指标对目标识别或者影像分类的结果进行评价。 假设我们需要将一个样本集分类为苹果和非苹果两类,那么分类结果有四种情况: 第一种情况:True Positive,本来就是苹果被分类成苹果&…

机器学习:什么是召回率、准确率和精确率?

在机器学习中,经常会听到准确率、召回率及精确率三个专业评价指标,刚开始接触时,总是会傻傻的分不清,今天之后,就能准确区分了! —准确率:就是在预测的所有样本中预测正确的比率(包…

准确率、精度和召回率

原文链接 精度(查准率)和召回率(查全率)是衡量机器学习模型性能的重要指标,特别是数据集分布不平衡的案例中。 什么是分布不平衡的数据集? 倘若某人声称创建一个能够识别登上飞机的恐怖分子的模型&#…

深度学习提高模型准确率方法

这里写目录标题 深度学习数据使用更多数据更改图像大小减少颜色通道 算法模型改进增加训练轮次迁移学习添加更多层调整超参数 总结 深度学习 我们已经收集好了一个数据集,建立了一个神经网络,并训练了模型,在测试和验证阶段最后得到的准确率…

准确率、精准率和召回率的理解

我们在在分类任务时,经常会对模型结果进行评估。评估模型好坏的指标有AUC、KS值等等。这些指标是通过预测概率进行计算的。而准确率、精准率和召回率也通过混淆矩阵计算出来的。下图是对混淆矩阵的介绍: 其中, TP:样本为正&#…

准确率召回率

http://blog.sina.com.cn/s/blog_4b59de070100ehl7.html 最近一直在做相关推荐方面的研究与应用工作,召回率与准确率这两个概念偶尔会遇到, 知道意思,但是有时候要很清晰地向同学介绍则有点转不过弯来。 召回率和准确率是数据挖掘中预测、互…

准确度(accuracy)、精确率(precision)、召回率(recall)、F1值 谈谈我的看法

目录 前言 基本概念 准确率 Accuracy 精确度 Precision 召回率 Recall F1 值 sklearn 的评估函数 pyspark 的评估函数 tensorflow 的评估函数 多分类下的评估 前言 准确度、精确率、召回率、F1值作为评估指标,经常用到分类效果的评测上。比较好理解的二分…

准确率,精确率,召回率和F1值

机器学习(ML),自然语言处理(NLP),信息检索(IR)等领域,评估(Evaluation)是一个必要的 工作,而其评价指标往往有如下几点:准确率(Accuracy),精确率(Precision),召回率(Recall)和F1-Measure。 (注: 相对来说,IR 的 ground truth 很多时候是一个 Ordered Lis…

准确率与召回率

在信息检索、分类体系中,有一系列的指标,搞清楚这些指标对于评价检索和分类性能非常重要,因此最近根据网友的博客做了一个汇总。 准确率、召回率、F1 信息检索、分类、识别、翻译等领域两个最基本指标是召回率(Recall Rate)和准确率(Precisio…

【机器学习】召回率、精确率、准确率的区别

1. 作用语言定义 作用:提升****精确率是为了不错报、提升召回率是为了不漏报 分不清准确率和精确率,在这里先正确区分一下精确率和准确率,以及他们的别称这里[HashArt]给出了一个通俗易懂的解释:(https://zhuanlan.zhihu.com/p/9…

准确率、精确率、召回率、F值

准确率:正确的数量除以总数量 准确率(accuracy),是一个用来衡量分类器预测结果与真实结果差异的一个指标,越接近于1说明分类结果越准确。举个例子,比如现在有一个猫狗图片分类器对100张图片进行分类&#…

准确率、精确率、召回率和F-score

文章目录 一、TP、FP、FN和TN二、 准确率(accuracy)、精确率(precision)、召回率(Recall)、F-score三、各个指标意义和优缺点 一、TP、FP、FN和TN 举例来说,用血压值来检测一个人是否有高血压,测出的血压值…

准确率(Accuracy) | 查准率(Precision) | 查全率(Recall)

目录 样本 识别结果 指标计算 Accuracy(准确率) Precision(精确率、查准率) Recall (召回率、查全率) 为什么要不同的指标? 综合评价 (F-Score) 在机器学习中,对于一个模型…

通俗解释机器学习中的召回率、精确率、准确率

赶时间的同学们看这里:提升精确率是为了不错报、提升召回率是为了不漏报 网络上很多地方分不清准确率和精确率,在这里先正确区分一下精确率和准确率,以及他们的别称 切入正题 很多人分不清召回率和精确率的区别,即使记住了公式…

详解准确率、精确率、召回率、F1值的含义

机器学习问题之中,通常需要建立模型来解决具体问题,但对于模型的好坏,也就是模型的泛化能力,如何进行评估呢? 很简单,我们可以定一些评价指标,来度量模型的优劣。比如准确率、精确率、召回率、…

准确率,召回率

1、准确率与召回率(Precision & Recall) 准确率和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召…

如何解释准确率、精确率与召回率?

对于二分类问题,机器预测的和实际的还是会有所偏差,所以我们引入以下几个概念来评价分类器的优良。 首先有关TP、TN、FP、FN的概念。TP与TN都是机器(预测)分类分对了的情况,TP是预测为正类且预测正确,TN是…

准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F值(F-Measure)、AUC、ROC的理解

一、准确率、精确率、召回率和 F 值 (1)若一个实例是正类,但是被预测成为正类,即为真正类(True Postive TP) (2)若一个实例是负类,但是被预测成为负类,即为真负类(True Negative TN) (3)若一个实例是负类,但是被预…