深度学习 分类问题与回归问题

article/2025/9/27 0:07:40

分类问题与回归问题

    • 分类与回归
  • 一、分类问题
      • 1.1分类性能度量:
        • (1)准确率(accuracy)
        • *(2)精确率(percision)
        • *(3)召回率(recall)/灵敏度(sensitivity)
        • (4)P-R曲线
          • P-R曲线的绘制
        • (5)F值
        • (6)ROC曲线
          • 绘制ROC曲线
        • AUC(area under curve)
      • 1.2 分类性能可视化
          • (1)混淆矩阵(Confusion matrix)
          • (2)分类报告(Classification report)
  • 二、回归问题
      • 回归性能度量方法(regression metrics)
        • (1)平均绝对误差MAE(mean absolute error)
        • (2)均方误差MSE(mean_squared_error)及均方根差RMS
        • (3)逻辑回归损失 / 称交叉熵loss(cross-entropy loss)
        • 回归评价中每个样本的真实标签true label(或叫ground truth地面真值结果)如何获得?


分类与回归

分类预测建模问题与回归预测建模问题不同。

  • 分类是预测离散类标签的任务。
  • 回归是预测连续类数量的任务。

分类和回归算法之间存在一些重叠, 例如:

  • 分类算法可以预测连续值,但是连续值是类标签的概率的形式。
  • 回归算法可以预测离散值,但是以整数量的形式预测离散值。

一些算法可用于分类和回归,只需很少的修改,例如决策树和人工神经网络。一些算法不能或不能容易地用于两种问题类型,例如用于回归预测建模的线性回归和用于分类预测建模的逻辑回归。

重要的是,我们评估分类和回归预测的方式各不相同,并且不重叠,例如:

  • 可以使用准确度评估分类预测,而回归预测则不能。
  • 可以使用均方根误差来评估回归预测,而分类预测则不能。

比如,区分图像中的人是男性还是女性的问题就是分类问题。根据一个人的图像预测这个人的体重的问题就是回归问题(类似“57.4kg”这样的预测)。
在这里插入图片描述


一、分类问题

分类问题是有监督学习的一个核心问题。
分类用于解决要预测样本属于哪个或者哪些预定义的类别。此时输出变量通常取有限个离散值。
分类的机器学习的两大阶段:
(1)从训练数据中学习得到一个分类决策函数或分类模型,成为分类器(classifier);
(2)利用学习得到的分类器对新的输入样本进行类别预测。
多类分类问题可转化为两类分类问题解决,如采用一对其余(One-vs-Rest)方法:将其中一个类标记为正类,将其余类标记为负类。

1.1分类性能度量:

假设只有两类样本,即正例(positive)和负例(negetive)。
在这里插入图片描述真正(True Positive , TP):被模型预测为正的正样本。
假正(False Positive , FP):被模型预测为正的负样本。
假负(False Negative , FN):被模型预测为负的正样本。
真负(True Negative , TN):被模型预测为负的负样本。

(1)准确率(accuracy)

分类器正确分类的样本数与总样本数之比。
在这里插入图片描述

*(2)精确率(percision)

在这里插入图片描述

精确率和召回率是二类分类问题常用的评价指标。
精确率反映了模型判断的正例中真正正例的比重。
在垃圾分类中,是指预测出的垃圾短信中真正垃圾短信的比例。

*(3)召回率(recall)/灵敏度(sensitivity)

在这里插入图片描述
召回率反映了总正例中被模型正确判定为正例的比重。
医学领域也叫做灵敏度。在垃圾短信分类器中,指所有真的垃圾短信被分类器正确找出来的比例。

(4)P-R曲线

在这里插入图片描述由图可见,如果提高召回率,则精确率会受到影响而下降。在这里插入图片描述如图是多类分类器,每次将一类分为正例,其他两类为负例,则得到蓝绿红三条曲线。而黄色曲线是他们的平均值线。
括号中area为曲线下面积。
area有助于弥补P、R的单点值局部性,可以反映全局性能。

P-R曲线的绘制

绘制P-R曲线需要一系列Percision和Recall值,通过阈值获得。分类器给每个测试样本一个“Score”值,表示该样本多大概率上属于正例。
在这里插入图片描述TP与FP的个数会随之增加,因此会形成N个(P,R)点将这些点连起来就形成了P-R曲线。

(5)F值

F值是精确率和召回率的调和平均值。
在这里插入图片描述F1值更接近于两个数较小的那个,所以精确率和召回率接近时,F1值大。
在这里插入图片描述

(6)ROC曲线

ROC曲线全称为“受试者工作特征”(Receiver Operating Characteristic)曲线。描绘了分类器在真正率(TPR)和假正率(FPR)之间的trade-off。
也可理解为:我们根据学习器的预测结果,把阈值从0变到最大,即刚开始是把每个样本作为正例进行预测,随着阈值的增大,学习器预测正样例数越来越少,直到最后没有一个样本是正样例。在这一过程中,每次计算出TP和FP,分别以它们为横、纵坐标作图,就得到了“ROC曲线”。

ROC曲线的纵轴是“真正率”(True Positive Rate, 简称TPR),真正正例占总正例的比例,反映命中概率。横轴是“假正率”(False Positive Rate,简称FPR),错误的正例占负例的比例,反映误诊率、假阳性率、虚惊概率。
在这里插入图片描述

绘制ROC曲线

ROC 曲线的画法与P-R曲线相似。
绘制ROC曲线需要一系列FPR值和TPR值,这些系列值是通过阈值形成的。对于每个测试样本,分类器会给一个“Score”值,表示该样本多大概率上属于正例或负例。
在这里插入图片描述TP与FP的个数会随着样本数的增加而增加,因此形成一个个(FP,TP)点,将点连起来就形成了ROC曲线。
在这里插入图片描述

  • 对角线对应于“随机猜测”模型,而点(0,1)则对应于将所有正例预测为真正例、所有反例预测为真负例的“理想模型”。
  • ROC曲线不适用于多分类问题。

AUC(area under curve)

AUC就是ROC曲线下的面积,即ROC的积分。衡量学习器优劣的一种性能指标。
AUC是衡量二分类模型优劣的一种评价指标,表示预测的正例排在负例前面的概率(反映分类器对样本的排序能力)。
AUC提供了分类器的一个整体数值。通常AUC越大,分类器越好。
AUC的取值范围为[0,1]
在这里插入图片描述

1.2 分类性能可视化

(1)混淆矩阵(Confusion matrix)

如用热力图(heatmap)直观地展现类别的混淆情况(每个类有多少样本被错误地预测成另一个类)
在这里插入图片描述

(2)分类报告(Classification report)

显示每个类的分类性能。包括每个类标签的精确率、召回率、F1值等。。
在这里插入图片描述


二、回归问题

回归分析(regression analysis)是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。
回归侧重在定量关系的分析,输出实数数值。而分类的输出通常为若干指定的类别标签。

回归性能度量方法(regression metrics)

  • 常用的评价回归问题的方法:
    平均绝对误差MAE(mean absolute error)
    均方误差MSE(mean squared error)及均方根差RMS
    逻辑回归损失或称交叉熵loss(cross-entropy loss)
    R方值,确定系数(r2_score)

(1)平均绝对误差MAE(mean absolute error)

MAE :是绝对误差损失(absolute error loss)的期望值。
在这里插入图片描述

(2)均方误差MSE(mean_squared_error)及均方根差RMS

MSE:是平方误差损失(squared error loss)的期望值。
NSE的取值越小,预测模型的性能越好。
RMSE是MSE的平方根。
在这里插入图片描述
在这里插入图片描述

(3)逻辑回归损失 / 称交叉熵loss(cross-entropy loss)

逻辑回归损失简称为Log loss,又称为交叉熵损失。
常用于评论逻辑回归LR和神经网络。
在这里插入图片描述

  • logistic回归损失(二类)
    举例:
    在这里插入图片描述 - logistic回归损失(多类)
    对于多类问题,可将样本的真实标签编码成1-of-K(K为类别总数)的二元指示矩阵Y,即每个样本只有其中一个标签值为1,其余K-1都为0。
    在这里插入图片描述
    现将每个样本的真实标签记为[1, 2, 3],此时标签1可转化为[1, 0, 0],标签2转化为[0, 1, 0],标签3转化为[0, 0, 1]。
    在这里插入图片描述
    举例:
    在这里插入图片描述

回归评价中每个样本的真实标签true label(或叫ground truth地面真值结果)如何获得?

  • 人工标注每个样本的标签或回归的目标值
  • MAE,PMSE(MSE)常用于评分预测评价
    如网站的让用户给物品打分的功能

http://chatgpt.dhexx.cn/article/AP6w1FBq.shtml

相关文章

Python实现---用KNN解决回归问题

KNN用于回归问题 KNN不仅可以用于分类问题,也可以用回归问题。 主要算法思路就是:使用KNN计算某个数据点的预测值时,模型从训练数据集中选择离该数据点最近的k个数据点,并且把这些数据的y值取均值,把求出的这个均值作…

神经网络:DNN回归问题

2020_11_01 DNN Regression 参考资料:《Python深度学习》 Francois Choll 神经网络可以主要解决三大类问题:二分类、多分类、回归。 回归问题特点在于结果是连续值,因此调参过程也与分类问题相异。 在了解DNN回归问题后,我们…

机器学习实战(二)使用LightGBM的回归问题模型搭建

目录 1.导入所用的数据包 2.导入模型建立所需要的数据 3.数据集划分 4.导入训练包与交叉验证包(LGBM) 5.模型训练 6.模型验证及画图 7.画图展示模型验证情况 8.特征重要性分析 数据集链接 S. Thai, H. Thai, B. Uy, T. Ngo, M. Naser, Test Data…

Keras深度学习(4)-回归问题之预测房价

在深度学习的任务中,回归问题也是一个常见的任务。 本文将要预测 20 世纪 70 年代中期波士顿郊区房屋价格的中位数,已知当时郊区的一些数据点,比如犯罪率、当地房产税率等。本节用到的数据集与前面两个例子有一个有趣的区别。它包含的数据点相…

『迷你教程』绝对能看懂的分类问题和回归问题白话版

文章目录 内容介绍函数近似分类预测建模回归预测建模分类与回归在分类和回归问题之间转换 内容介绍 老生常谈的话题分类问题和回归问题之间有一个重要的区别。从根本上说,分类是关于预测标签,回归是关于预测数量。 我经常看到这样的问题: 如…

各类回归问题总结

回归问题的条件/前提: 1) 收集的数据 2) 假设的模型,即一个函数,这个函数里含有未知的参数,通过学习,可以估计出参数。然后利用这个模型去预测/分类新的数据。 1. 线性回归 假设 特征 和 结果…

回归问题的评价指标和重要知识点总结

回归分析为许多机器学习算法提供了坚实的基础。在这篇文章中,我们将总结 10 个重要的回归问题和5个重要的回归问题的评价指标。 1、线性回归的假设是什么? 线性回归有四个假设 线性:自变量(x)和因变量(y…

深度学习3:回归问题

首先不要将回归问题和logistic回归算法混为一谈,logistic回归不是回归算法,而是分类算法。 之前的分类问题的目标是预测输入数据点所对应的单一离散的标签,而这节要预测一个连续的而不是离散的标签,比如根据气象数据预测明天的气温…

回归问题评价指标

目录 平均绝对值误差(MAE) 均方误差(MSE) 均方根误差(RMSE) 平均绝对百分比误差(MAPE) 均方误差对数(MSLE) 中位绝对误差(MedAE) R Squared 总结 回归模型: 个样本,每个样本…

stacking集成模型预测回归问题

前言 关于各种集成模型,已经有很多文章做了详细的原理介绍。本文不再赘述stacking的原理,直接通过一个案例,使用stacking集成模型预测回归问题。 本文通过学习一篇stacking继承学习预测分类问题,对其代码进行了调整,以…

逻辑回归问题汇总

文章目录 1. Logistic回归与线性回归的区别与联系?2. Logistic回归有哪些基本假设?3. Logistic回归的损失函数?4. Logistic回归损失函数的求解方法?5. Logistic回归是如何进行分类的?6. Logistic回归为什么要用极大似然函数作为损失函数?7. 为什么在…

回归问题归一化总结

在用深度学习做回归问题时,对数据进行标准化处理是一个共识,将数据标准化,利用标准化后得数据进行数据分析。不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响…

分类和回归问题

前言 最近在复习一些深度学习和机器学习的基础知识,看到分类和回归,这里记录一下。 一、回归 首先,回归应用的场景是用来输出一系列连续的值,然后用于预测等任务。回归的目的是为了找到最优拟合的曲线,这个曲线可以…

回归问题一般解决方法

1. 回归问题 Given a labeled training set learn a general mapping which associates previously unseen independent test data with their correct continuous prediction. 回归问题和分类问题很相似,区别在于回归问题的输出是一个连续值。 上图是训练数据 和 对应的连续值…

对线性回归、逻辑回归、各种回归的概念学习

回归问题的条件/前提: 1) 收集的数据 2) 假设的模型,即一个函数,这个函数里含有未知的参数,通过学习,可以估计出参数。然后利用这个模型去预测/分类新的数据。 1. 线性回归 假设 特征 和 结果 都满足线性。即不大于一次方。这个是针对 收集的数据而言。 收集的数据中…

回归问题

回归 回归(regression) 是监督学习的另一个重要问题。 回归用于预测输入变量(自变量) 和输出变量(因变量) 之间的关系, 特别是当输入变量的值发生变化时, 输出变量的值随之发生的…

回归问题原理

回归问题是一种常见的监督机器学习任务,在很多领域均有广泛应用。其典型应用包括销量预测、库存预测、股票价格预测、天气预测等。本问将讨论线性回归,包括线性回归模型的目标函数(损失函数和正则函数)、线性回归模型的优化求解、…

机器学习之回归问题

目录 前言 一、回归定义 二、回归建模步骤 1.模型假设-线性模型(Linear Model) (1)一元线性模型 (2)多元线性模型 2.模型评估-损失函数(Loss Funtion) 3.最佳模型-梯度下降&…

mac idea jrebel 激活

jrebel 官网提供注册,然后会给你一个注册码 首先 idea 安装 jrebel . 在安装完成之后,点击以下按钮 一开始 跟我的不一样,我的是注册完成之后,才会显示Change license 的这个提示, 之前好像是 Activate now 提示,点击即可 当注册完成之后,关闭弹出框 选择上图中的值,去官网注…

安装jrebel并激活

1.File-Settings-Plugins搜索jrebel,找到JRebel for IntelliJ ,点击install(我这里已经安装过了,所以显示的是更新) 2.重启idea 3.激活步骤,下载工具 ①下载激活工具 连接:https://pan.baidu.com/s/1Fh2v2zrAO2u50ZnS9LHBOQ 提取码…