一元线性回归的详细推导过程

article/2025/8/24 19:21:42

下面是一元线性回归的详细求解过程。

假设一元线性回归的最佳直线方程为:

y = ax + b                                          (1)

对于一个样本点x_{i} ,有预测值为:

\hat{y}_{i} = ax_{i} + b                                        (2)

这个样本点的真值为y_{i} ,要想获得最佳拟合方程,就需要使真值y_{i} 和 预测值\hat{y}_{i} 之间的差值最小,为了后面方便求极值,使用两个值差的平方:

\left ( y_{i} - \hat{y}_{i} \right )^{2}                                             (3)

当把所有样本\left ( x_{1}, x_{2}, x_{3},\cdots , x_{m} \right )考虑进来时,上式则为:

\sum_{i=1}^{m}\left ( y_{i} - \hat{y}_{i} \right )^{2}                                       (4)

得到上式后,现在的目标就是使上式尽可能的小,将式(2)代入上式,可得:

\sum_{i=1}^{m}\left ( y_{i} - ax_{i}-b \right )^{2}                             (5)

此时的目标是找到a和b,使得式(5)尽可能的小,这就转化成了最优化问题:

J\left ( a,b \right )=\sum_{i=1}^{m}\left ( y_{i} -ax_{i}-b\right )^{2} \left            (6)               

要求上式的最小值,其实就是求该式的极值,需要对上式进行求导,导数为0的位置就是极值的位置,分别对a和b求导:

\frac{\partial J\left ( a,b \right )}{\partial a} = 0          \frac{\partial J\left ( a,b \right )}{\partial b} = 0      (7)

从式(6)可以看出,括号里,a的系数是x_{i},b的系数是-1,明显对b求导更简单,这里先对b求导:

\frac{\partial J\left ( a,b \right )}{\partial b}=\sum_{i=1}^{m}2\left ( y_{i}-ax_{i}-b \right )\left ( -1 \right )=0     (8)

对式(8)化简,去掉其中的-2,得:

\sum_{i=1}^{m}\left ( y_{i}-ax_{i}-b \right )=0                         (9)

将式(9)的括号去掉,得:

\sum_{i=1}^{m}y_{i} -a\sum_{i=1}^{m}x_{i}-\sum_{i=1}^{m}b=0              (10)

式(10)的第三项其实就是mb,可写为:

\sum_{i=1}^{m}y_{i} -a\sum_{i=1}^{m}x_{i}-mb=0                  (11)

将式(11)的mb拿到一侧,得:

mb=\sum_{i=1}^{m}y_{i} -a\sum_{i=1}^{m}x_{i}                        (12)

式(12)的等式两边同时除以m,得:

b= \frac{\sum_{i=1}^{m}y_{i}}{m} - \frac{a\sum_{i=1}^{m}x_{i}}{m}                   (13)

式(13),第一项中所有y_{i}的和除以m其实就是y_{i}的平均值,第二项中所有x_{i}的和除以m就是x_{i}的平均值,所以,式(13)可写为:

b = \bar{y} - a\bar{x}                                           (14)

式(14)就是b的结果,然后基于式(6)再对a进行求导:

\frac{\partial J\left ( a,b \right )}{\partial a}=\sum_{i=1}^{m}2\left ( y_{i}-ax_{i}-b \right )\left ( -x_{i} \right )=0     (15)

式(15)可化简为:

\sum_{i=1}^{m}\left ( y_{i}-ax_{i}-b \right )x_{i} =0                    (16)

将b的结果代入上式,得:

\sum_{i=1}^{m}\left ( y_{i}-ax_{i}-\bar{y}+a\bar{x} \right )x_{i} =0           (17)

将上式的x_{i}乘到括号里,得:

\sum_{i=1}^{m}\left ( x_{i}y_{i}-a\left (x_{i} \right )^{2}-x_{i}\bar{y}+a\bar{x}x_{i} \right ) =0    (18)

把上式中含有a的项放到一起,得:

\sum_{i=1}^{m}\left ( x_{i}y_{i}-x_{i}\bar{y} \right )-a\sum_{i=1}^{m}\left ( x_{i}^{2}-\bar{x}x_{i} \right ) =0   (19)

再把a放到等式的左边,其它部分放到等式右边,可求得a的值为:

a = \frac{\sum_{i=1}^{m}\left ( x_{i}y_{i}-x_{i}\bar{y} \right )}{\sum_{i=1}^{m}\left ( x_{i}^{2}-\bar{x}x_{i} \right )}                                (20)

此时已经求得了a和b的值,这里对式(20)进一步处理,分子中的第二项可做如下转换:

\sum_{i=1}^{m}x_{i}\bar{y}=\bar{y}\sum_{i=1}^{m}x_{i} = m\bar{y}\bar{x} = \bar{x}\sum_{i=1}^{m}y_{i} = \sum_{i=1}^{m}\bar{x}y_{i}    (21)

其中,\bar{x}\bar{y}是常数,则

m\bar{y}\bar{x} = \sum_{i=1}^{m}\bar{x}\bar{y}            (22)

基于式(21)和式(22)对(20)进行变换,得下式。由式(21)可看出,式(23)分子的第三项和第四项相等,分母的第三项与第四项其实就是将分子的第三项与第四项中的y变为了x。所以,分母的第三项和第四项也是相等的。

a = \frac{\sum_{i=1}^{m}\left ( x_{i}y_{i}-x_{i}\bar{y} - \bar{x}y_{i} + \bar{x}\bar{y} \right )}{\sum_{i=1}^{m}\left ( x_{i}^{2}-\bar{x}x_{i} - \bar{x}x_{i} +\bar{x}^{2}\right )}     (23)

式(23),进一步可以合并为:

a = \frac{\sum_{i=1}^{m}\left ( x_{i}\left ( y_{i}-\bar{y} \right ) - \bar{x}\left ( y_{i}-\bar{y} \right ) \right )}{\sum_{i=1}^{m}\left ( x_{i}^{2}-2\bar{x}x_{i} +\bar{x}^{2}\right )}  (24)

即:

a = \frac{\sum_{i=1}^{m}\left ( x_{i}-\bar{x} \right )\left ( y_{i}-\bar{y} \right )}{\sum_{i=1}^{m}\left ( x_{i}-\bar{x} \right )^{2}}                (25)

此时就找了使得式(5)尽可能的小a和b,即:

a = \frac{\sum_{i=1}^{m}\left ( x_{i}-\bar{x} \right )\left ( y_{i}-\bar{y} \right )}{\sum_{i=1}^{m}\left ( x_{i}-\bar{x} \right )^{2}}b = \bar{y} - a\bar{x}      (26)

以上就是一元线性回归的详细求解过程,由于是一元,这里的\bar{x}\bar{y}比较容易得到,a和b也容易求得。但是,对于多元线性回归的情况,系数的求解需要使用到矩阵,而更多求解其它目标函数使用的是梯度下降法。

 


http://chatgpt.dhexx.cn/article/9vjW1UI8.shtml

相关文章

线性回归基础相关公式

线性回归 通常输入 x 具有多个属性值,翻译过来就是一条数据具有多个特征值。当我们假定最简单的一种情况,也就是说输入只有一个属性值的时候,此时就是一元线性回归。线性回归试图 f(x) wx b,使得 f&…

线性回归原理推导

一、参数公式推导 1、线性回归方程 在三维空间中,决策面/预测函数可表示为:     h θ ( x ) θ 0 θ 1 x 1 θ 2 x 2 h_θ(x)θ_0θ_1x_1θ_2x_2 hθ​(x)θ0​θ1​x1​θ2​x2​,其中 θ 0 θ_0 θ0​是截距,又称偏置项。…

多元线性回归中的公式推导

这次接着一元线性回归继续介绍多元线性回归,同样还是参靠周志华老师的《机器学习》,把其中我一开始学习时花了较大精力弄通的推导环节详细叙述一下。 本文用到的部分关于向量求导的知识可以参看博文标量、向量、矩阵求导 数据集 D{(x1,y1),(x2,y2)⋯(x…

用Excel求线性回归方程

文章目录 一、何为线性回归二、如何制作线性回归最小二乘法 三、利用Excel求线性回归方程操作方法1.选择需要拟合的数据2.点击工具栏的插入,选择插入散点图3.在生成的表格右上角勾选上生成渐近线4.右击生成的渐近线,选择设置渐近线格式5.勾选线性以及显示…

线性回归python实现详解(附公式推导)

目录 1线性回归1.1简单线性回归1.2 多元线性回归的正规方程解1.3 使用梯度下降求解多元线性回归1.4 sklearn中的线性回归模型 1线性回归 1.1简单线性回归 在简单线性回归中,输入x只有一个特征,通过调整a和b的参数值,来拟合从x到y的线性关系。…

机器学习之线性回归原理详解、公式推导(手推)、简单实例

目录 1. 原理详解1.1. 线性回归1.2. 回归系数 2. 公式推导2.1. 单元线性回归2.2. 多元线性回归 3. 简单实例3.1. 实例1:一元线性回归实例2: 多元线性回归3.3. 实例3:房价预测 1. 原理详解 1.1. 线性回归 假设一个空间中有一堆散点&#xff0…

统计学——线性回归公式推导

假设我们有n个点,(x1,y1), (x2,y2), ... ,(xn,yn),如下图所示: 我们要求这几个点的线性回归方程,假设方程为ymxb,如下图所示: 我们的目的是使误差的平方和最小 即求: 的最小值。

计算线性回归、指数回归公式

最近要计算线性回归、指数回归的公式。就整理下吧,以便帮助他人,少走弯路。 发现网上线性回归的资料还算详细,但是指数回归资料很少,还会误导人。 线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互…

Python实现线性回归(公式推导+源代码)

写这篇文章之前,首先要对自己做一个小小的反思,很多时候在学习新技术的时候,看到出了什么什么框架,在这个框架上什么什么方法可以直接拿过来用,这样的好处就是我们可以减少写代码量,几个函数就可以帮我们解…

线性回归方程推导

理论推导 机器学习所针对的问题有两种:一种是回归,一种是分类。回归是解决连续数据的预测问题,而分类是解决离散数据的预测问题。线性回归是一个典型的回归问题。其实我们在中学时期就接触过,叫最小二乘法。 线性回归试图学得一个…

线性回归相关知识及公式推导

转自https://www.cnblogs.com/GuoJiaSheng/p/3928160.html 在现实生活中普遍存在着变量之间的关系,有确定的和非确定的。确定关系指的是变量之间可以使用函数关系式表示,还有一种是属于非确定的(相关),比如人的身高和…

线性模型(二)-- 线性回归公式推导

我们在初中学习线性方程的时候就已经接触过回归的相关概念,在这里简单介绍一下机器学习中的“回归”,机器学习的目的有两个:回归和分类,回归是解决连续数据的预测问题,而分类是为了解决离散数据的预测问题。线性回归是…

一元线性回归公式推导

一元线性回归公式推导 平均损失函数: 对w,b求偏导: 可求解(先求b,再求w): 或: 这两个式子中的w是等价de,可由第一个w分子分母同除n,再由下式得到第二个w: 参考文献: https://zhidao.baidu.com/q…

线性回归模型公式推导

线性回归公式推导 线性模型一、线性回归(一)一元线性回归1. 由最小二乘法得出损失函数2. 证明损失函数 E ( w , b ) E(w,b) E(w,b)是关于 w w w和 b b b的凸函数3. 对损失函数求关于b和w的一阶偏导数4. 令一阶偏导数为0解出 w w w和 b b b (二…

线性回归--公式推导

线性回归 -- LIner regression 线性回归&#xff08;Linear regression&#xff09;是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析 —维基百科 线性回归--理论推导 <1> 数据: 本次推导使用的数据为--银行贷款数据。 &…

线性回归原理及算法

今天给大家的介绍一下线性模型&#xff0c;线性回归模型虽说模型简单&#xff0c;但距今为止依旧在机器学习算法中占据一定的地位&#xff0c;不仅如此&#xff0c;而且在实际的业务应用中也是屡试不爽的机器学习算法。 线性回归模型公式&#xff1a;YXwb &#xff08;一个X变量…

机器学习之线性回归

线性回归是最简单的一个函数拟合过程&#xff0c;一元线性回归公式为yaxb。 我们做拟合&#xff0c;首先需要定义一个损失函数。一般常用的损失函数有&#xff1a;0-1损失函数和绝对值损失函数 0-1损失是指&#xff0c;预测值和目标值不相等为1&#xff0c;否则为0&#xff1a;…

在线Cron表达式生成器,定时任务表达式生成器

近期项目需要在后台管理系统的页面上生成定时任务表达式存入定时任务系统的数据库中&#xff0c;就是那种根据后台管理员指定的时分秒年月日生成一个定时任务表达式。 一时间有点不好下手。我可以根据后台管理员指定的时分秒年月日手动写一个定时任务表达式&#xff0c;也可以…

在线QuartzCron定时任务表达式在线生成

在线QuartzCron定时任务表达式在线生成 在线QuartzCron定时任务表达式在线生成 Quartz是一个完全由java编写的开源作业调度框架,Quartz最主要的功能就是调度器(完成定时任务)。本工具可以在线生成QuartzCron表达式 Quartz是一个完全由java编写的开源作业调度框架,Quartz最主要…

Android Studio修改应用名称及应用图标

一、修改应用名称 找到src/main/AndroidManifest.xml文件&#xff1a; android:label后面配置的就是应用名称配置路径或应用名称。 方式1&#xff1a;android:label"xxx应用"&#xff08;应用名称显示xxx应用&#xff09; 方式2&#xff1a;android:label"st…