机器学习-线性模型及广义线性模型

article/2025/8/19 16:08:50

线性模型(linear model)

      线性模型试图学得一个通过属性的线性组合来进行预测的函数,即:

      ...  (其中;...;为输入属性,;...;和b为模型参数)

      向量表示为:

        (其中为输入属性向量,和b为模型参数)

      线性模型的优点:

      1.形式简单、易于建模

      2.通过引入层级结构或高维映射可得到非线性模型

      3.具有很好的可解释性(直观表达了各属性在预测中的重要性)


线性回归

      1.单变量线性回归

      

      2.多变量线性回归(多元线性回归)

      

      线性回归试图学得一个线性模型以尽可能准确地预测实值输出标记。

      常使用均方误差作为性能度量,试图让均方误差最小化。基于均方误差最小化来进行模型参数求解的方法称为“最小二乘法”

      线性回归任务使用最小二乘法来进行参数估计,获得w和b的值。


广义线性模型(general linear model)

      当模型的预测值逼近真实标记y时,就得到了线性回归模型。

      

      当模型的预测值逼近y的衍生物时,如逼近标记y的对数即lny时,线性回归任务变成了“对数线性回归”,其形式上仍是线性回归,但实质上已经是在求取输入空间到输出空间的非线性函数映射。对数函数起到了将线性回归模型的预测值与真实标记联系起来的作用。此时,得到的模型可以称为广义线性模型,其中的函数称为联系函数。

      

      联系函数为g(·)可推广为:

      


对数几率回归

      把对数几率函数(sigmoid函数)作为联系函数,将预测实值z转换为0/1值。所得数值为正例可能性,可能性大于0.5则判定为正例1,小于0.5则判定为反例0。

      对率函数及图像:

        

      其中z为模型预测实值,将z代入可得:

      

      可变化为:

      

      将y视为样本正例的可能性,则1-y为样本反例可能性,两者比值称为“几率”,反映了x作为正例的相对可能性:

      

      对几率取对数则得到“对数几率”:

      

      该方法对应的模型称为“对数几率回归”,名字是“回归”,但实际是一种二分类学习方法。

      二分类任务使用极大似然法进行参数估计


多分类任务

      可通过拆解法,将多分类任务拆为若干个二分类任务。通常有三种拆分策略:

      One vs One:将N个分类两两配对,从而产生N(N-1)/2个二分类任务。在测试阶段,新样本将同时提交给所有分类器,于是将得到N(N-1)/2个分类结果,最终结果可通过投票产生:即把被预测得最多的类别作为最终分类结果。

      One vs Rest:将一个类的样例作为正例、所有其他类的样例作为反例来训练N个分类器。在测试阶段,仅有一个分类器预测为正类,则对应的类别标记作为最终分类结果。

      Many vs Many:每次将若干类作为正例,若干个其他类作为反例。

容易看出,OvR只需要训练N个分类器,而OvO需训练N(N-1)/2个分类器,因此,OvO的存储开销和测试时间开销通常比OvR更大。但在训练时,OvR的每个分类器均使用全部训练样例,而OvO的每个分类器仅用到两个类的样例,因此,在类别很多的时候,OvO的训练时间开销通常比OvR更小。


类别不平衡问题

      如果不同类别的训练样例数稍有差别,通常影响不大,但若差别很大,则会对学习过程造成困扰。例如有998个反例,但正例只有2个,那么学习方法只需返回一个永远将新样本预测为反例的学习机器,就能达到99.8%的精度。然而这样的学习器没有什么价值,因为它不能预测出任何正例。

      类别不平衡就是指分类任务中不同类别的训练样例数目差别很大的情况。在现实的分类学习任务中,经常会遇到类别不均衡,例如在通过拆分法解决多分类问题时,即使原始问题中不同类别的训练样例数目相当,在使用OvR、MvM策略后产生的二分类任务仍可能出现类别不平衡现象。

      从分类器的角度讨论,在使用线性模型对新样本x进行分类时,事实上是在用预测出的y值与一个阈值进行比较,例如通常在y>0.5时判别为正例,否则为反例。y实际上表达了正例的可能性,几率则反映了正例可能性与反例可能性之间的比值,阈值设置为0.5恰表明分类器认为真实正、反例可能性相同,即分类器决策规则为:

      若 > 1则预测为正例

      然而,当训练集中正、反例的数目不同时,令表示正例数目,表示反例数目,则观测几率是,由于通常假设训练集是真实样本总体的无偏采样,因此观测几率就代表了真实几率。于是,只要分类器的预测几率高于观测几率就应判为正例,即分类器决策规则为:

      若 > 则预测为正例

      但是,分类器实际是基于第一个规则决策的,因此,需要对其预测值进行调整,使其决策规则向第二个靠拢,这就是类别不平衡学习的一个基本策略“再缩放”。可令:

      


http://chatgpt.dhexx.cn/article/Bt7B5H5C.shtml

相关文章

广义线性模型到底是个什么鬼?

以下文章内容摘自网络:说人话的统计学 原标题:广义线性模型到底是个什么鬼? ❉说人话的统计学❉ 从逻辑回归模型开始,我们连续讲了好多集有些相似又特点各异的几种统计模型。它们有个统一的旗号,叫做「广义线性模型」(…

线性模型(一)--广义线性模型(GLM)简介

我们从初中开始接触线性方程,线性关系是变量间最简单的关系,所以我打算从线性模型入手开始介绍机器学习的基本算法。广义线性模型(General Linear Model,GLM)是线性回归模型的推广形式,由广义线性模型可以推导出线性回…

广义线性模型2

1.1.2 Ridge Regression[岭回归] 岭回归和普通最小二乘法回归的一个重要区别是前者对系数模的平方进行了限制。如下所示: In [1]: from sklearn import linear_modelIn [2]: clf linear_model.R linear_model.RandomizedLasso linear_model.RandomizedLogisticRe…

R语言广义线性模型

1.广义线性模型和glm()函数 广义线性模型扩展了线性模型的框架,它包含了非正态因变量的分析。 广义线性模型通过拟合响应变量的条件均值的一个函数(不是响应变量的条件均值),假设响应变量服从指…

广义线性模型(GLM)初级教程

文章目录 广义线性模型指数分布族性质 连接函数正则连接函数(canonical link function)如何找这样的g? 模型详解参数估计极大似然估计Newton-Raphson MethodFisher Scoring MethodIteratively Reweighted Least Squares关于FS和IRLS区间估计 模型检验Pearson Residu…

广义线性模型(Generalized Linear Model)之二:Logistic回归

广义线性模型(Generalized Linear Model)之二:Logistic回归 一、引入:多元线性回归模型二、Logistic回归模型三、非条件logistic回归模型(一)介绍(二)模型的建立与检验(三…

广义线性模型(GLM)及其应用

广义线性模型[generalize linear model(GLM)]是线性模型的扩展,通过联系函数建立响应变量的数学期望值与线性组合的预测变量之间的关系。它的特点是不强行改变数据的自然度量,数据可以具有非线性和非恒定方差结构。是线性模型在研究响应值的非正态分布以…

广义线性回归模型

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言一、广义线性回归模型二、数据集简介三、使用步骤1.引入库和读入数据2.简单分析3.详细分析3.回归分析4.计算混淆矩阵和整体预测率 前言 提示:glm被…

广义线性模型GLM

本文转自 GLM(广义线性模型) 与 LR(逻辑回归) 详解(原作者:爱学习的段哥哥) GLM的内容,本应该较早之前就总结的,但一直觉得这种教科书上的基础知识不值得专门花时间copy到博客里来。直到某一天看到一篇不错的总结&…

广义线性模型--Generalized Linear Models

监督学习问题: 1、线性回归模型: 适用于自变量X和因变量Y为线性关系 2、广义线性模型: 对于输入空间一个区域改变会影响所有其他区域的问题,解决为:把输入空间划分成若干个区域,然后对每个区域用不同的多项…

广义线性模型(Generalized Linear Models, GLM)

上一篇博客中我们说到线性回归和逻辑回归之间隐隐约约好像有什么关系,到底是什么关系呢?我们就来探讨一下吧。(这一篇数学推导占了大多数,可能看起来会略有枯燥,但这本身就是一个把之前算法统一起来的抽象模型&#xf…

广义线性模型(Generalized Linear Model)——机器学习

零、前言 对于条件分布(y|x;θ),对于线性回归模型有,而对分类问题有。其实这些分布均是广义线性模型(GLM)的特殊情况。 我们通过定义广义线性模型,可以据此求出拟合函数h(x) 一、指数分布族(Exponential …

广义线性模型和线性回归

广义线性模型(GLM) 首先术语广义线性模型(GLM)通常是指给定连续和/或分类预测变量的连续响应变量的常规线性回归模型。它包括多元线性回归,以及ANOVA和ANCOVA(仅具有固定效果)。形式为 yi〜N&a…

机器学习之广义线性模型

深夜博客在今天开张啦 一年前接触了机器学习,纯属个人兴趣,还没想到要入坑,现在沉迷无法自拔了哈哈哈。好了也不说太多废话了,今天的主题是广义线性模型啦!这篇博客是参考斯坦福cs229 lecture1中的Generalize Linear …

广义线性模型理解

本文纯属个人理解,恳求指正。 广义线性回归能做什么?为什么我们要使用广义线性回归? 这俩天看到了广义线性回归这个概念,百度上面基本是吴恩达的copy版本,知乎上面都是大神写的,表示看完等于没看。 看了p…

广义线性模型1

1.1 Generalized Linear Models[广义线性模型] 线性模型[linear model],也称经典线性模型[classical linear model]或一般线型模型[general linear model,GLM]。广义线性模型[generalized linear model,GENMOD]由Nelder & Wedderburn[19…

R之广义线性模型

R之广义线性模型 一、广义线性模型和glm()函数 结果变量是类别型的。二值变量(比如:是/否、有效/无效、活着/死亡)和多分类变量(比如差/良好/优秀)都显然不是正态分布;结果变量是计数型的。(比…

第5章 广义与一般线性模型

第1章 多元统计分析概述 第2章 多元数据的数学表达 第3章 多元数据的直观表示 第4章 多元相关与回归分析 第5章 广义与一般线性模型 5.1 模型的选择5.2 广义线性模型5.3 一般线性模型 第6章 判别分析及R使用 第7章 聚类分析及R使用 第8章 主成分分析及R使用 第9章 因子分析及…

广义线性模型

今天我来介绍一种在机器学习中应用的比较多的模型,叫做广义线性模型(GLM)。这种模型是把自变量的线性预测 函数当作因变量的估计值。在机器学习中,有很多模型都是基于广义线性模型的,比如传统的线性回归模型&#xff…

广义线性模型(Generalized Linear Model)

转载于:广义线性模型(Generalized Linear Model) - 肉鹅阿笨 - 博客园 (cnblogs.com) 1.指数分布族 我们在建模的时候,关心的目标变量Y可能服从很多种分布。像线性回归,我们会假设目标变量Y服从正态分布,而…