详解机器学习中 ROC曲线、AUC值、正确率、召回率

article/2025/5/1 7:17:20

文章目录

  • 前言简介
  • 医学图像识别二分类问题
  • ROC 曲线
  • 如何画ROC曲线
  • AUC

前言简介

在分类任务中,人们总是喜欢基于错误率来衡量分类器任务的成功程度。错误率指的是在所有测试样例中错分的样例比例。实际上,这样的度量错误掩盖了样例如何被分错的事实。在机器学习中,有一个普遍适用的称为混淆矩阵(confusion matrix)的工具,它可以帮助人们更好地了解分类中的错误。

比如有这样一个在房子周围可能发现的动物类型的预测,这个预测的三类问题的混淆矩阵如下表所示:
在这里插入图片描述

利用混淆矩阵可以充分理解分类中的错误了。如果混淆矩阵中的非对角线元素均为0,就会得到一个近乎完美的分类器。

在接下来的讨论中,将以经典的二分类问题为例,对于多分类类比推断。

二分类问题在机器学习中是一个很常见的问题,经常会用到。ROC (Receiver Operating Characteristic) 曲线和 AUC (Area Under the Curve) 值常被用来评价一个二值分类器 (binary classifier) 的优劣。之前做医学图像计算机辅助肺结节检测时,在评定模型预测结果时,就用到了ROC和AUC,这里简单介绍一下它们的特点,以及更为深入地,讨论如何作出ROC曲线图和计算AUC值。

医学图像识别二分类问题

针对一个二分类问题,我们将实例分成正类(positive)和负类(negative)两种。

例如:在肺结节计算机辅助识别这一问题上,一幅肺部CT图像中有肺结节被认为是阳性(positive),没有肺结节被认为是阴性(negative)。对于部分有肺结节的示意图如下:
在这里插入图片描述
所以在实际检测时,就会有如下四种情况:

(1) 真阳性(True Positive,TP):检测有结节,且实际有结节;正确肯定的匹配数目;
(2) 假阳性(False Positive,FP):检测有结节,但实际无结节;误报,给出的匹配是不正确的;
(3) 真阴性(True Negative,TN):检测无结节,且实际无结节;正确拒绝的非匹配数目;
(4) 假阴性(False Negative,FN):检测无结节,但实际有结节;漏报,没有正确找到的匹配的数目。

详细图解(原创,转载请标明出处)如下:
在这里插入图片描述

这里整理肺结节识别中的几个主要参数指标如下:

  • 正确率(Precision):
    P r e c i s i o n = T P T P + F P Precision=\dfrac{TP}{TP+FP} Precision=TP+FPTP

  • 真阳性率(True Positive Rate,TPR),灵敏度(Sensitivity),召回率(Recall):
    S e n s i t i v i t y = R e c a l l = T P R = T P T P + F N Sensitivity=Recall=TPR=\dfrac{TP}{TP+FN} Sensitivity=Recall=TPR=TP+FNTP

  • 真阴性率(True Negative Rate,TNR),特异度(Specificity):
    S p e c i f i c i t y = T N R = T N F P + T N Specificity=TNR=\dfrac{TN}{FP+TN} Specificity=TNR=FP+TNTN

  • 假阴性率(False Negatice Rate,FNR),漏诊率( = 1 - 灵敏度):
    F N R = F N T P + F N FNR=\dfrac{FN}{TP+FN} FNR=TP+FNFN

  • 假阳性率(False Positice Rate,FPR),误诊率( = 1 - 特异度):
    F P R = F P F P + T N FPR=\dfrac{FP}{FP+TN} FPR=FP+TNFP

  • 阳性似然比(Positive Likelihood Ratio (LR+)):
    L R + = T P R F P R = S e n s i t i v i t y 1 − S p e c i f i c i t y LR+ = \dfrac{TPR}{FPR} = \dfrac{Sensitivity}{1-Specificity} LR+=FPRTPR=1SpecificitySensitivity

  • 阴性似然比(Negative Likelihood Ratio (LR−) ):
    L R − = F N R T N R = 1 − S e n s i t i v i t y S p e c i f i c i t y LR- = \dfrac{FNR}{TNR} = \dfrac{1-Sensitivity}{Specificity} LR=TNRFNR=Specificity1Sensitivity

  • Youden指数(Youden index):
    Youden index = S e n s i t i v i t y + S p e c i f i c i t y − 1 = T P R − F P R \text{Youden index} = Sensitivity + Specificity - 1 = TPR - FPR Youden index=Sensitivity+Specificity1=TPRFPR

ROC 曲线

ROC曲线:接收者操作特征曲线(receiver operating characteristic curve),是反映敏感性和特异性连续变量的综合指标,roc曲线上每个点反映着对同一信号刺激的感受性。

对于分类器或者说分类算法,评价指标主要有precision,recall,F1 score等,以及这里要讨论的ROC和AUC。下图是一个ROC曲线的示例:
在这里插入图片描述

横坐标:1-Specificity,伪正类率(False positive rate, FPR),预测为正但实际为负的样本占所有负例样本 的比例;
纵坐标:Sensitivity,真正类率(True positive rate, TPR),预测为正且实际为正的样本占所有正例样本 的比例。

在一个二分类模型中,假设采用逻辑回归分类器,其给出针对每个实例为正类的概率,那么通过设定一个阈值如0.6,概率大于等于0.6的为正类,小于0.6的为负类。对应的就可以算出一组(FPR,TPR),在平面中得到对应坐标点。随着阈值的逐渐减小,越来越多的实例被划分为正类,但是这些正类中同样也掺杂着真正的负实例,即TPR和FPR会同时增大。阈值最大时,对应坐标点为(0,0),阈值最小时,对应坐标点(1,1)。

如下面这幅图,(a)图中实线为ROC曲线,线上每个点对应一个阈值。
在这里插入图片描述

  • 理想情况下,TPR应该接近1,FPR应该接近0。ROC曲线上的每一个点对应于一个threshold,对于一个分类器,每个threshold下会有一个TPR和FPR。比如Threshold最大时,TP=FP=0,对应于原点;Threshold最小时,TN=FN=0,对应于右上角的点(1,1)。
  • P和N得分不作为特征间距离d的一个函数,随着阈值theta增加,TP和FP都增加。

横轴FPR:1-TNR,1-Specificity,FPR越大,预测正类中实际负类越多。
纵轴TPR:Sensitivity(正类覆盖率),TPR越大,预测正类中实际正类越多。
理想目标:TPR=1,FPR=0,即图中(0,1)点,故ROC曲线越靠拢(0,1)点,越偏离45度对角线越好,Sensitivity、Specificity越大效果越好。

随着阈值threshold调整,ROC坐标系里的点如何移动可以参考:
在这里插入图片描述

如何画ROC曲线

对于一个特定的分类器和测试数据集,显然只能得到一个分类结果,即一组FPR和TPR结果,而要得到一个曲线,我们实际上需要一系列FPR和TPR的值,这又是如何得到的呢?我们先来看一下Wikipedia上对ROC曲线的定义:

In signal detection theory, a receiver operating characteristic (ROC), or simply ROC curve, is a graphical plot which illustrates the performance of a binary classifier system as its discrimination threshold is varied.

问题在于“as its discrimination threashold is varied”。如何理解这里的“discrimination threashold”呢?我们忽略了分类器的一个重要功能“概率输出”,即表示分类器认为某个样本具有多大的概率属于正样本(或负样本)。通过更深入地了解各个分类器的内部机理,我们总能想办法得到一种概率输出。通常来说,是将一个实数范围通过某个变换映射到(0,1)区间。

假如我们已经得到了所有样本的概率输出(属于正样本的概率),现在的问题是如何改变“discrimination threashold”?我们根据每个测试样本属于正样本的概率值从大到小排序。下图是一个示例,图中共有20个测试样本,“Class”一栏表示每个测试样本真正的标签(p表示正样本,n表示负样本),“Score”表示每个测试样本属于正样本的概率。
在这里插入图片描述

接下来,我们从高到低,依次将“Score”值作为阈值threshold,当测试样本属于正样本的概率大于或等于这个threshold时,我们认为它为正样本,否则为负样本。举例来说,对于图中的第4个样本,其“Score”值为0.6,那么样本1,2,3,4都被认为是正样本,因为它们的“Score”值都大于等于0.6,而其他样本则都认为是负样本。每次选取一个不同的threshold,我们就可以得到一组FPR和TPR,即ROC曲线上的一点。这样一来,我们一共得到了20组FPR和TPR的值,将它们画在ROC曲线的结果如下图:

在这里插入图片描述

当我们将threshold设置为1和0时,分别可以得到ROC曲线上的(0,0)和(1,1)两个点。将这些(FPR,TPR)对连接起来,就得到了ROC曲线。当threshold取值越多,ROC曲线越平滑。

其实,我们并不一定要得到每个测试样本是正样本的概率值,只要得到这个分类器对该测试样本的“评分值”即可(评分值并不一定在(0,1)区间)。评分越高,表示分类器越肯定地认为这个测试样本是正样本,而且同时使用各个评分值作为threshold。我认为将评分值转化为概率更易于理解一些。

AUC

AUC值的计算

AUC (Area Under Curve) 被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围一般在0.5和1之间。使用AUC值作为评价标准是因为很多时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而作为一个数值,对应AUC更大的分类器效果更好。

AUC的计算有两种方式,梯形法和ROC AUCH法,都是以逼近法求近似值,具体见wikipedia。

AUC意味着什么

那么AUC值的含义是什么呢?根据(Fawcett, 2006),AUC的值的含义是:

The AUC value is equivalent to the probability that a randomly chosen positive example is ranked higher than a randomly chosen negative example.

这句话有些绕,我尝试解释一下:首先AUC值是一个概率值,当你随机挑选一个正样本以及一个负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值。当然,AUC值越大,当前的分类算法越有可能将正样本排在负样本前面,即能够更好的分类。

从AUC判断分类器(预测模型)优劣的标准:

  • AUC = 1,是完美分类器,采用这个预测模型时,存在至少一个阈值能得出完美预测。绝大多数预测的场合,不存在完美分类器。
  • 0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
  • AUC = 0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值。
  • AUC < 0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测。

三种AUC值示例
在这里插入图片描述
简单说:AUC值越大的分类器,正确率越高

为什么使用ROC曲线

既然已经这么多评价标准,为什么还要使用ROC和AUC呢?因为ROC曲线有个很好的特性:当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。在实际的数据集中经常会出现类不平衡(class imbalance)现象,即负样本比正样本多很多(或者相反),而且测试数据中的正负样本的分布也可能随着时间变化。下图是ROC曲线和Precision-Recall曲线的对比:
在这里插入图片描述

在上图中,(a)和©为ROC曲线,(b)和(d)为Precision-Recall曲线。(a)和(b)展示的是分类其在原始测试集(正负样本分布平衡)的结果,©和(d)是将测试集中负样本的数量增加到原来的10倍后,分类器的结果。可以明显的看出,ROC曲线基本保持原貌,而Precision-Recall曲线则变化较大。

Reference:

Wikipedia:Receiver operating characteristic
孔明的博客:ROC和AUC介绍以及如何计算AUC
Rachel Zhang的专栏(CSDN):ROC曲线-阈值评价标准
博客园dzl_ML:机器学习之分类器性能指标之ROC曲线、AUC值
知乎:精确率、召回率、F1 值、ROC、AUC 各自的优缺点是什么?
(在此对以上博文的博主表示感谢!)

转自 zhwhong 的博客:[机器学习之分类性能度量指标 : ROC曲线、AUC值、正确率、召回率](https://zhwhong.cn/2017/04/14/ROC-AUC-Precision-Recall-analysis/)


http://chatgpt.dhexx.cn/article/fREvHOef.shtml

相关文章

ROC-AUC 浅谈理解ROC曲线和AUC值

这是一个评价二分类器的指标,特点是不受不平衡数据集的影响。但事实理解起来有点难。下面先介绍ROC-AOC是什么,然后再谈谈我的一种理解。ps,理解这个指标,首先得对经典的F1, Recall,Precision的比较熟悉,否则看了会一头雾水,如果你不熟这几个指标的计算,建议先阅读。 …

ROC曲线和AUC值的计算

转载自&#xff1a;https://zhuanlan.zhihu.com/p/25212301&#xff0c;本文只做个人记录学习使用&#xff0c;版权归原作者所有。 1、混淆矩阵 混淆矩阵如下图所示&#xff0c;分别用0和1代表负样本和正样本。FP代表实际类标签为0但是预测标签为1的样本数量&#xff0c;其余…

机器学习 模型评估指标 - ROC曲线和AUC值

机器学习算法-随机森林初探&#xff08;1&#xff09;随机森林拖了这么久&#xff0c;终于到实战了。先分享很多套用于机器学习的多种癌症表达数据集 https://file.biolab.si/biolab/supp/bi-cancer/projections/。机器学习算法-随机森林之理论概述 分类问题评估指标有&#xf…

[sklearn]性能度量之AUC值

[sklearn]性能度量之AUC值 &#xff08;from sklearn.metrics import roc_auc_curve&#xff09; 1.AUC AUC&#xff08;Area Under ROC Curve&#xff09;&#xff0c;即ROC曲线下面积。 2.AUC意义 若学习器A的ROC曲线被学习器B的ROC曲线包围&#xff0c;则学习器B的性能优…

如何理解ROC曲线和AUC值

1、ROC曲线下的面积就是AUC值。 2、如何绘制ROC曲线&#xff0c;通过改变不同的阈值&#xff0c;每个阈值都可以得到一个混淆矩阵&#xff0c;通过混淆矩阵&#xff0c;可以计算出假阳性率和真阳性率。即该坐标系下的一个点。将阈值从0&#xff0c;调整到1&#xff0c;即可绘制…

AUC值越大_AUC的一般计算和近似计算方式

AUC值是一个概率值&#xff0c;当你随机挑选一个正样本以及负样本&#xff0c;当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值&#xff0c;AUC值越大&#xff0c;当前分类算法越有可能将正样本排在负样本前面&#xff0c;从而能够更好地分类。…

AUC值越大_模型评价——准确率、精确率与召回率与F值、宏平均与微平均、ROC曲线与AUC值...

在上一篇文章中&#xff08;baiziyu&#xff1a;模型评价——训练误差与测试误差、过拟合与欠拟合、混淆矩阵&#xff09;主要介绍了模型评价涉及的基本概念&#xff0c;本节给出一些常用的评价指标。这些指标大致可以分为三类&#xff0c;第一大类是普通的准确率评价指标&…

AUC值越大_「机器学习速成」分类,评估指标(TP、FP、TN、FN),ROC曲线和AUC

大家好&#xff0c;今天我们学习【机器学习速成】之 分类&#xff0c;评估指标(TP、FP、TN、FN)&#xff0c;ROC曲线和AUC。 本节介绍了如何使用逻辑回归来执行分类任务&#xff0c; 并探讨了如何评估分类模型的有效性。 我们 马上学三点 &#xff0c; 逻辑回归用作分类&#x…

AUC值越大_一文看懂ROC、AUC

评测指标是衡量一个算法是否出色的一个重要部分,好的指标能让我们这些炼丹学徒知道,练出来的丹药是否有效果。那么在机器学习中有哪些值得一探究竟的指标呢?本文就PR图,ROC、AUC、mAP这4个方面进行详细探究。 总的来说评价指标的核心得从二分类问题说起:一个类,它实际值有…

入门选手都能理解的ROC曲线与AUC值

项目github地址&#xff1a;bitcarmanlee easy-algorithm-interview-and-practice 欢迎大家star&#xff0c;留言&#xff0c;一起学习进步 1.ROC曲线 在信号检测理论中&#xff0c;接收者操作特征曲线&#xff08;receiver operating characteristic curve&#xff0c;或者叫…

AUC值得含义和计算方法

转载自&#xff1a;http://baijiahao.baidu.com/s?id1597939133517926460&wfrspider&forpc 机器学习备忘录 | AUC值的含义与计算方法 浮生偷闲 18-04-17 05:32 内容导读 在机器学习领域&#xff0c; AUC 值经常用来评价一个二分类模型的训练效果&#xff0c;对于许多机…

python计算偏态、极差、方差、标准差、平均数、中位数、众数

import numpy as np lists[1,2,3,4,5,6,7,8,9]print("极差&#xff1a;",np.max(lists)-np.min(lists))#最大值减最小值 lists_varnp.var(lists, axisNone, dtypeNone, outNone, ddof0, keepdimsnp._NoValue) print("方差&#xff1a;",lists_var) lists_s…

数据分析应用统计学之分散性与变异性的测量【极差、四分位差、偏态系数、峰态系数、统计指标】

文章目录 1、极差与四分位差&#xff08;R&#xff09;2、方差与标准差&#xff08;西格玛、V&#xff09;3、偏态系数与峰态系数&#xff08;SK、β&#xff09;4、统计指标类型 1、极差与四分位差&#xff08;R&#xff09; 1&#xff09;极差&#xff1a;称为全距&#xff…

偏态数据的观察、量化评估与处理前后的对比

在机器学习中&#xff0c;模型更容易从具有正态分布特性的数据中学习到有用特征。但我们经常会发现有些特征存在长尾分布&#xff0c;对于这种偏态分布数据&#xff0c;需要进行特殊的处理&#xff0c;本文首先观察特征分布情况&#xff0c;然后以量化的方式评估数据偏态程度从…

统计学学习日记:L7-离散趋势分析之偏态和峰态

一、偏态&#xff08;SK&#xff09; 1.数据偏斜程度的测度 偏态系数0为对称分布 偏态系数>0为右偏分布 偏态系数<0为左偏分布 偏态系数>1或<-1&#xff0c;被称为高度偏态分布&#xff1b;偏态系数在0.5~1或-1~-0.5之间&#xff0c;被认为是中等偏态分布&#xf…

如何处理偏态数据?

这是笔试/面试题系列的第2篇文章 在了解何为偏态数据前&#xff0c;要先从正态数据说起。 正态分布 正态分布是自然界中广泛存在的&#xff0c;我们都知道它是两头低&#xff0c;中间高&#xff0c;整个形态呈现对称钟形的一个分布&#xff0c;之所以叫正态分布&#xff0c;是…

skewness and kurtosis偏态和峰度的解释和演示、数据的偏度和峰度——df.skew()、df.kurt()

skewness (偏态) 正偏态分布(positive skewness distribution)是指频数分布的高峰偏于左侧&#xff0c;偏态系数为正值的频数分布形态。偏态分布分为正偏态和负偏态。当均值大于众数时称为正偏态&#xff1b;当均值小于众数时称为负偏态。 定义上偏度是样本的三阶标准化矩&am…

Uniapp中onShow()的应用

遇到问题&#xff1a; 在使用一些变量进行判断时&#xff0c;用完一次开始下一次判断时&#xff0c;结果会跟前一次一样&#xff0c;比如门禁中第一个房子打开后&#xff0c;切换到另外的房子&#xff0c;结果返回结果跟第一个房子一样。 原因分析&#xff1a; 用于使用了相…

uni中onLoad与onShow周期的区别

一、说明 页面周期参考网址&#xff1a;https://uniapp.dcloud.io/tutorial/page.html#lifecycle 二、通俗概括 1. onLoad先执行&#xff0c;onShow后执行 onLoad() {console.log(111); }, onShow(){console.log(222); },2. onLoad只执行一次&#xff0c;onShow监听页面可执…