回归分析(三)二项逻辑斯蒂回归模型

article/2025/10/14 0:23:45

回归分析(三)二项逻辑斯蒂回归

  学了一段时间突然又遇到逻辑斯蒂回归,结果发现已经忘完了,所以今天重新梳理一下。

(1)逻辑斯蒂分布

  先看一下逻辑斯蒂分布函数 F ( x ) F(x) F(x),其概率密度函数 f ( x ) f(x) f(x)公式如下:
F ( x ) = P ( X ≤ x ) = 1 1 + e − ( x − μ ) γ f ( x ) = F ′ ( x ) = e − ( x − μ ) γ γ ( 1 + e − ( x − μ ) γ ) 2 (其中 μ 为位置参数, γ 为形状参数) F(x)=P(X\leq x)=\frac{1}{1+e^{\frac{-(x-\mu)}{\gamma}}}\\ f(x)=F'(x)=\frac{e^{\frac{-(x-\mu)}{\gamma}}}{\gamma(1+e^{\frac{-(x-\mu)}{\gamma}})^2}\\ (其中\mu为位置参数,\gamma为形状参数) F(x)=P(Xx)=1+eγ(xμ)1f(x)=F(x)=γ(1+eγ(xμ))2eγ(xμ)(其中μ为位置参数,γ为形状参数)
  当 μ = 0 , γ = 1 \mu=0,\gamma=1 μ=0,γ=1时,即 s i g m o i d sigmoid sigmoid函数如下:

img

s i g m o i d 函数: F ( x ) = 1 1 + e − x sigmoid函数:F(x)=\frac{1}{1+e^{-x}} sigmoid函数:F(x)=1+ex1

(2)逻辑斯蒂回归数学推导

  逻辑斯蒂回归是在回归模型中引入 s i g m o i d sigmoid sigmoid函数的一种非线性回归模型,如下:
y = 1 1 + e − z = 1 1 + e − ( w . x + b ) 其中 y ∈ ( 0 , 1 ) , z = w . x + b \begin{aligned} &y=\frac{1}{1+e^{-z}}=\frac{1}{1+e^{-(w.x+b)}}\\ &其中y\in(0,1),~z=w.x+b \end{aligned} y=1+ez1=1+e(w.x+b)1其中y(0,1), z=w.x+b

  • s i g m o i d sigmoid sigmoid函数的以下几条优秀性质,将赋予它以概率意义:

    • 单增有界,且取值范围为 ( 0 , 1 ) (0,1) (0,1) F ( 0 ) = 0.5 F(0)=0.5 F(0)=0.5

    • 对于输入 z z z范围无限制,且 z → ∞ , y = 1 ; z → − ∞ , y = 0 z\rightarrow\infin,y=1;~z\rightarrow-\infin,y=0 z,y=1; z,y=0

 因此,逻辑斯蒂回归虽可用于数据和输出之间复杂关系回归拟合,但由于其良好的概率特性,使其更多情况作为二分类模型的基础。

  作二分类的逻辑斯蒂回归模型,即二项逻辑斯蒂回归,通过极大化似然函数的方法,运用梯度下降最优化模型参数,使得正确分类概率最大化,从而实现分类作用。

  这里我们引出逻辑斯蒂回归模型,它由条件概率分布表示,即输入 x x x条件下,输出的概率分布:
P ( Y = 1 ∣ x ) = e ( w x + b ) 1 + e ( w x + b ) P ( Y = 0 ∣ x ) = 1 1 + e ( w x + b ) ( x ∈ R n 为输入, Y ∈ { 0 , 1 } 为输出, w ∈ R n 和 b ∈ R 为待优化参数, w 权值, b 偏置) P(Y=1|x)=\frac{e^{(wx+b)}}{1+{e^{(wx+b)}}}\\ P(Y=0|x)=\frac{1}{1+e^{(wx+b)}}\\ (x\in R^n为输入,Y\in \{0,1\}为输出,w\in R^n和b\in R为待优化参数,w权值,b偏置) P(Y=1∣x)=1+e(wx+b)e(wx+b)P(Y=0∣x)=1+e(wx+b)1xRn为输入,Y{0,1}为输出,wRnbR为待优化参数,w权值,b偏置)
  即对于给定的输入实例 x x x,求解 P ( Y = 1 ∣ x ) P(Y=1|x) P(Y=1∣x) P ( Y = 0 ∣ x ) P(Y=0|x) P(Y=0∣x),进行比较,将实例 x x x分类到概率较大的一类即可。
插播 t i p s : 逻辑斯蒂回归也被称作 − − 对数几率回归 几率 o d d s = p 1 − p / 对数几率 log ⁡ ( o d d s ) = l o g p 1 − p 故对于逻辑斯蒂回归 : log ⁡ P ( Y = 1 ∣ x ) 1 − P ( Y = 1 ∣ x ) = log ⁡ P ( Y = 1 ∣ x ) P ( Y = 0 ∣ x ) = w . x + b 故可理解,我们实际上是用线性回归模型去拟合逼近真实结果的对数几率。 \begin{aligned} 插播tips:&\\ &逻辑斯蒂回归也被称作--对数几率回归\\ &几率odds=\frac{p}{1-p} ~/~对数几率\log(odds)=log\frac{p}{1-p}\\ &故对于逻辑斯蒂回归:\\ &\log\frac{P(Y=1|x)}{1-P(Y=1|x)}=\log\frac{P(Y=1|x)}{P(Y=0|x)}=w.x+b\\ &故可理解,我们实际上是用线性回归模型去拟合逼近真实结果的对数几率。 \end{aligned} 插播tips:逻辑斯蒂回归也被称作对数几率回归几率odds=1pp / 对数几率log(odds)=log1pp故对于逻辑斯蒂回归:log1P(Y=1∣x)P(Y=1∣x)=logP(Y=0∣x)P(Y=1∣x)=w.x+b故可理解,我们实际上是用线性回归模型去拟合逼近真实结果的对数几率。
  接下来就是最大(对数)似然估计求解最优化参数即可:

  我们设 P ( Y = 1 ∣ x ) = π ( x ) , P ( Y = 0 ∣ x ) = 1 − π ( x ) P(Y=1|x)=\pi(x),~P(Y=0|x)=1-\pi(x) P(Y=1∣x)=π(x), P(Y=0∣x)=1π(x)
似然函数: ∏ i = 1 N [ π ( x i ) ] y i [ 1 − π ( x i ) ] 1 − y i 对数似然函数: L ( w ) = ∑ i = 1 N [ y i log ⁡ π ( x i ) + ( 1 − y i ) log ⁡ ( 1 − π ( x i ) ) ] \begin{aligned} &似然函数:\prod_{i=1}^N [\pi(x_i)]^{y_i}[1-\pi(x_i)]^{1-y_i}\\ &对数似然函数:L(w)=\sum_{i=1}^{N}[y_i\log\pi(x_i)+(1-y_i)\log(1-\pi(x_i))] \end{aligned} 似然函数:i=1N[π(xi)]yi[1π(xi)]1yi对数似然函数:L(w)=i=1N[yilogπ(xi)+(1yi)log(1π(xi))]
   L ( w ) L(w) L(w)这玩意是不是看着很眼熟,那你看看下面这个式子:
二分类交叉熵损失函数: L o s s ( w ) = − [ y log ⁡ y ^ + ( 1 − y ) log ⁡ ( 1 − y ^ ) ] 二分类交叉熵损失函数:Loss(w)=-[y\log\hat{y}+(1-y)\log(1-\hat{y})] 二分类交叉熵损失函数:Loss(w)=[ylogy^+(1y)log(1y^)]
  故最大化对数似然函数,其实和最小化损失函数是一个思路,故可用梯度下降法或牛顿法进行最优化参数求解。最小化损失函数是负迭代方向迭代,最大化似然函数正梯度方向迭代即可。

  接着对对数似然函数进行化简:
L ( w ) = ∑ i = 1 N [ y i log ⁡ π ( x i ) + ( 1 − y i ) log ⁡ ( 1 − π ( x i ) ) ] = ∑ i = 1 N [ y i log ⁡ π ( x i ) 1 − π ( x i ) + log ⁡ ( 1 − π ( x i ) ) ] = ∑ i = 1 N [ y i ( w . x ) − log ⁡ ( 1 + e ( w . x ) ) ] (这里提 一下, w . x 就是之前的 w . x + b , 只是就行了扩展如下) ( w = ( w ( 1 ) , w ( 2 ) , . . . , w ( n ) ) ⟶ ( w ( 1 ) , w ( 2 ) , . . . , w ( n ) , b ) ) ( x = ( x ( 1 ) , x ( 2 ) , . . . , x ( n ) ) ⟶ ( x ( 1 ) , x ( 2 ) , . . . , x ( n ) , 1 ) ) \begin{aligned} L(w)&=\sum_{i=1}^{N}[y_i\log\pi(x_i)+(1-y_i)\log(1-\pi(x_i))]\\ &=\sum_{i=1}^{N}[y_i\log\frac{\pi(x_i)}{1-\pi(x_i)}+\log(1-\pi(x_i))]\\ &=\sum_{i=1}^{N}[y_i(w.x)-\log(1+e^{(w.x)})]\\ (这里提&一下,w.x就是之前的w.x+b,只是就行了扩展如下)\\ (w=(&w^{(1)},w^{(2)},...,w^{(n)})\longrightarrow(w^{(1)},w^{(2)},...,w^{(n)},b))\\ (x=(&x^{(1)}, x^{(2)},...,x^{(n)})\longrightarrow(x^{(1)}, x^{(2)},...,x^{(n)},1)) \end{aligned} L(w)(这里提w=(x=(=i=1N[yilogπ(xi)+(1yi)log(1π(xi))]=i=1N[yilog1π(xi)π(xi)+log(1π(xi))]=i=1N[yi(w.x)log(1+e(w.x))]一下,w.x就是之前的w.x+b,只是就行了扩展如下)w(1),w(2),...,w(n))(w(1),w(2),...,w(n),b)x(1),x(2),...,x(n))(x(1),x(2),...,x(n),1)
  我懒得写了,看看下面这个吧(这个博主那抄的:https://blog.csdn.net/daaikuaichuan/article/details/80848958)

img

  感觉上式 ln ⁡ \ln ln只是说明是对数似然函数,不需要取对数 ln ⁡ \ln ln。得到个分量偏导,就是对每个参数分量进行一个学习步长 α \alpha α的偏导方向的优化,直到对数似然函数 L ( w ) L(w) L(w)不再显著提升,或达到最大迭代次数。


http://chatgpt.dhexx.cn/article/HE4XSrm8.shtml

相关文章

回归分析:逻辑斯蒂回归模型,可视化分类决策边界

文章目录 逻辑斯蒂回归模型逻辑斯蒂回归模型python案例 逻辑斯蒂回归模型 前面的例子都是在用线性模型解决回归任务,那么线性模型能否完成分类任务呢?相较于回归任务,分类任务的预测值是离散的,比如二分类问题,可以用…

机器学习:逻辑斯蒂回归

目录 逻辑回归模型介绍逻辑斯蒂分布二项逻辑斯谛回归模型目标函数 逻辑回归模型介绍 原理: 逻辑斯谛回归(logistic regression)是经典的分类方法,它属于对数线性模型,原理是根据现有的数据对分类边界线建立回归公式&a…

《PyTorch深度学习实践》06 逻辑斯蒂回归 代码

视频:06.逻辑斯蒂回归_哔哩哔哩_bilibili 参考文章:pytorch 深度学习实践 第6讲 逻辑斯蒂回归_会游泳的小雁的博客-CSDN博客 网络模型的基本框架 1步骤: 1.Prepare dataset 2.Design model using Class (inherit from nn.Modul…

逻辑斯蒂回归 matlab实现

说明 我将试图从感知机的基础上说明逻辑回归的一般性原理和学习及预测方法,其中缺少一些必要的证明,包括了一个二分类问题的实例。其中关于感知机的实验在 机器学习 专栏中有介绍。 从感知机到逻辑斯蒂回归 感知机模型: 应用范围&#xf…

Lecture6 逻辑斯蒂回归(Logistic Regression)

目录 1 常用数据集 1.1 MNIST数据集 1.2 CIFAR-10数据集 2 课堂内容 2.1 回归任务和分类任务的区别 2.2 为什么使用逻辑斯蒂回归 2.3 什么是逻辑斯蒂回归 2.4 Sigmoid函数和饱和函数的概念 2.5 逻辑斯蒂回归模型 2.6 逻辑斯蒂回归损失函数 2.6.1 二分类损失函数 2.…

机器学习之逻辑斯蒂回归

目录 一、分类与回归 二、逻辑回归不是回归 三、生成式逻辑回归 四、判别式逻辑回归 五、逻辑回归为什么不用均方误差做损失函数 六、判别模型与生成模型的比较 七、写在最后 一、分类与回归 回归与分类是机器学习的基本问题。回归是预测连续值,分类是预测…

逻辑斯蒂回归算法

目录 逻辑斯蒂分布 二元逻辑斯蒂回归模型 二元逻辑斯蒂回归的损失函数及优化方法 二元逻辑斯蒂回归的正则化 多元逻辑斯蒂回归 逻辑斯蒂回归小结 LR的优点 LR的缺点 LR将连续特征离散化的原因 逻辑回归和线性回归的区别和联系 LR和SVM的关系 scikit-learn 逻辑回归…

逻辑斯蒂回归以及它的梯度下降法

文章目录 前言逻辑斯蒂分布 模型二项逻辑斯蒂回归模型多项逻辑斯蒂回归模型 策略算法如何求对数似然函数的最大值梯度下降法算法思想推导公式 注意 前言 预测任务分为: 回归问题:输入、输出变量为连续变量。分类问题:输出变量为有限个离散变…

逻辑斯蒂回归分类算法

逻辑斯蒂回归分类算法 首先来看一个线性回归来进行分类的问题: 怎样判断肿瘤是否恶性? 很明显线性回归用于分类问题无法处理边界点的位置。 同时,线性回归健壮性不够,一旦有噪声,立刻“投降” 使用逻辑斯蒂回归 ——…

逻辑斯蒂回归(二分类算法)理论+Python代码实现

逻辑斯蒂回归(二分类算法)理论Python代码实现 文章目录 逻辑斯蒂回归(二分类算法)理论Python代码实现一、理论基础(一) 基于 Logistic 回归和 Sigmoid 函数的分类(二) 模型训练与代价…

逻辑斯蒂回归 逻辑回归_逻辑回归简介

逻辑斯蒂回归 逻辑回归 Logistic regression is a classification algorithm, which is pretty popular in some communities especially in the field of biostatistics, bioinformatics and credit scoring. It’s used to assign observations a discrete set of classes(ta…

Logistic Regression 逻辑斯蒂回归

文章目录 5、Logistic Regression 逻辑斯蒂回归5.1 回归任务5.1.1 MNIST Dataset5.1.2 CIFAR-10 Dataset 5.2 Regression vs Classification 回归 vs 分类5.3 Sigmoid functions5.3.1 Logistic Function [0, 1]5.3.2 Other Functions [-1, 1] 5.4 Model 模型5.5.1 torch.sigmoi…

机器学习-逻辑斯蒂回归(Logistic Regression)

注:内容转自https://github.com/NLP-LOVE/ML-NLP/tree/master/Machine%20Learning,略有修改。 目录 逻辑 1. 什么是逻辑斯蒂回归 2. 什么是Sigmoid函数 3. 损失函数是什么 4.可以进行多分类吗? 5.逻辑斯蒂回归有什么优缺点 6. 逻辑斯…

逻辑斯蒂回归

一:二元逻辑回归模型 二项逻辑斯蒂回归模型是如下的条件概率分布: 其中,Y为输出,w称为权值向量,b称为偏置。逻辑斯蒂回归比较两个条件概率值的大小,将实例x分到概率值较大的那一类。 一个事件的几率是指该…

【笔记】逻辑斯蒂回归

一、逻辑斯蒂回归概述 (1)逻辑斯蒂回归的目的:分类。 逻辑斯蒂回归常常解决分类问题,特别是二分类问题。 (2)逻辑斯蒂回归的过程:回归。 计算结果是0~1之间的连续值,代表发生的可…

逻辑斯蒂回归java_逻辑斯蒂回归模型

http://blog.csdn.net/hechenghai/article/details/46817031 主要参照统计学习方法、机器学习实战来学习。下文作为参考。 第一节中说了,logistic 回归和线性回归的区别是:线性回归是根据样本X各个维度的Xi的线性叠加(线性叠加的权重系数wi就是模型的参数…

逻辑斯蒂回归算法详解

逻辑斯蒂回归算法可用于分类问题,其本质是在线性回归的算法上用sigmoid函数进行模型变换,使得目标值介于0-1之间。本文用于对逻辑斯蒂回归算法(Logistics Regression)进行详细讲述。 逻辑斯蒂回归基本假设 我们知道线性回归的基…

【机器学习实验五】逻辑斯蒂回归

目录 一、逻辑斯蒂回归基本概念 1.1、基本概念 1.2、特点 1.3、Logistic分布 1.4、逻辑斯蒂回归模型 二、利用逻辑斯蒂模型进行分类测试 2.1、数据准备 2.2、编写代码查看数据集的分布情况 2.3、训练分类算法 2.4、绘制决策边界 三、从疝气病症状预测病马的死亡率 …

Logistic regression(逻辑斯蒂)回归分析

Logistic regression (逻辑回归)是当前业界比较常用的机器学习方法,用于估计某种事物的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。(注意这里是&a…

逻辑斯谛回归(Logistic回归)最详解

Logistic回归学习思路 一.逻辑回归模型的原理与定义(主要思想) 逻辑斯谛回归是经典的分类方法,它属于对数线性模型,原理是根据现有的数据对分类边界线建立回归公式,以此进行分类。(主要思想) …