一元线性回归与多元线性回归理论及公式推导

article/2025/8/24 19:25:34

一元线性回归

  • 回归分析只涉及到两个变量的,称一元回归分析。
  • 一元回归的主要任务是从两个相关变量中的一个变量去估计另一个变量,被估计的变量,称因变量,可设为Y;估计出的变量,称自变量,设为X。回归分析就是要找出一个数学模型Y=f(x)y=ax+b

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

多元线性回归

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
注:为使似然函数越大,则需要最小二乘法函数越小越好

线性回归中为什么选用平方和作为误差函数?假设模型结果与测量值 误差满足,均值为0的高斯分布,即正态分布。这个假设是靠谱的,符合一般客观统计规律。若使 模型与测量数据最接近,那么其概率积就最大。概率积,就是概率密度函数的连续积,这样,就形成了一个最大似然函数估计。对最大似然函数估计进行推导,就得出了推导后结果: 平方和最小公式

在这里插入图片描述

在这里插入图片描述
注:
1.x的平方等于x的转置乘以x。
2.机器学习中普遍认为函数属于凸函数(凸优化问题),函数图形如下,从图中可以看出函数要想取到最小值或者极小值,就需要使偏导等于0。

在这里插入图片描述
3.一些问题上没办法直接求解,则可以在上图中选一个点,依次一步步优化,取得最小值(梯度优化)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
缺点:
SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。
解决方案:
1.动态更改学习速率a的大小,可以增大或者减小
2.随机选样本进行学习

  • 批量梯度下降每次更新使用了所有的训练数据,最小化损失函数,如果只有一个极小值,那么批梯度下降是考虑了训练集所有数据,是朝着最小值迭代运动的,但是缺点是如果样本值很大的话,更新速度会很慢。
  • 随机梯度下降在每次更新的时候,只考虑了一个样本点,这样会大大加快训练数据,也恰好是批梯度下降的缺点,但是有可能由于训练数据的噪声点较多,那么每一次利用噪声点进行更新的过程中,就不一定是朝着极小值方向更新,但是由于更新多轮,整体方向还是大致朝着极小值方向更新,又提高了速度。
  • 小批量梯度下降法是为了解决批梯度下降法的训练速度慢,以及随机梯度下降法的准确性综合而来,但是这里注意,不同问题的batch是不一样的,nlp的parser训练部分batch一般就设置为10000,那么为什么是10000呢,我觉得这就和每一个问题中神经网络需要设置多少层,没有一个人能够准确答出,只能通过实验结果来进行超参数的调整。
    在这里插入图片描述
    注:批量梯度下降法BGD;
       随机梯度下降法SGD;
      小批量梯度下降法MBGD(在上述的批量梯度的方式中每次迭代都要使用到所有的样本,对于数据量特别大的情况,如大规模的机器学习应用,每次迭代求解所有样本需要花费大量的计算成本。是否可以在每次的迭代过程中利用部分样本代替所有的样本呢?基于这样的思想,便出现了mini-batch的概念。 假设训练集中的样本的个数为1000,则每个mini-batch只是其一个子集,假设,每个mini-batch中含有10个样本,这样,整个训练数据集可以分为100个mini-batch。)

      在这里插入图片描述

http://chatgpt.dhexx.cn/article/cq8iYBJq.shtml

相关文章

线性回归理论说明及公式推导

一切从线性回归说起 线性回归的基本形式 对于一个给定的样本,有n个属性对样本进行描述,则该样本可用一下表达式进行描述: 其实x为输入,y为输出。而线性回归的主要任务,就是找出x,y之间的关系,我们可以想象…

一元线性回归的详细推导过程

下面是一元线性回归的详细求解过程。 假设一元线性回归的最佳直线方程为: (1) 对于一个样本点 ,有预测值为: (2) 这个样本点的真值为 ,要想获得最佳拟合方程,就需要使真值 和 预测值 之间的差值最小,为了…

线性回归基础相关公式

线性回归 通常输入 x 具有多个属性值,翻译过来就是一条数据具有多个特征值。当我们假定最简单的一种情况,也就是说输入只有一个属性值的时候,此时就是一元线性回归。线性回归试图 f(x) wx b,使得 f&…

线性回归原理推导

一、参数公式推导 1、线性回归方程 在三维空间中,决策面/预测函数可表示为:     h θ ( x ) θ 0 θ 1 x 1 θ 2 x 2 h_θ(x)θ_0θ_1x_1θ_2x_2 hθ​(x)θ0​θ1​x1​θ2​x2​,其中 θ 0 θ_0 θ0​是截距,又称偏置项。…

多元线性回归中的公式推导

这次接着一元线性回归继续介绍多元线性回归,同样还是参靠周志华老师的《机器学习》,把其中我一开始学习时花了较大精力弄通的推导环节详细叙述一下。 本文用到的部分关于向量求导的知识可以参看博文标量、向量、矩阵求导 数据集 D{(x1,y1),(x2,y2)⋯(x…

用Excel求线性回归方程

文章目录 一、何为线性回归二、如何制作线性回归最小二乘法 三、利用Excel求线性回归方程操作方法1.选择需要拟合的数据2.点击工具栏的插入,选择插入散点图3.在生成的表格右上角勾选上生成渐近线4.右击生成的渐近线,选择设置渐近线格式5.勾选线性以及显示…

线性回归python实现详解(附公式推导)

目录 1线性回归1.1简单线性回归1.2 多元线性回归的正规方程解1.3 使用梯度下降求解多元线性回归1.4 sklearn中的线性回归模型 1线性回归 1.1简单线性回归 在简单线性回归中,输入x只有一个特征,通过调整a和b的参数值,来拟合从x到y的线性关系。…

机器学习之线性回归原理详解、公式推导(手推)、简单实例

目录 1. 原理详解1.1. 线性回归1.2. 回归系数 2. 公式推导2.1. 单元线性回归2.2. 多元线性回归 3. 简单实例3.1. 实例1:一元线性回归实例2: 多元线性回归3.3. 实例3:房价预测 1. 原理详解 1.1. 线性回归 假设一个空间中有一堆散点&#xff0…

统计学——线性回归公式推导

假设我们有n个点,(x1,y1), (x2,y2), ... ,(xn,yn),如下图所示: 我们要求这几个点的线性回归方程,假设方程为ymxb,如下图所示: 我们的目的是使误差的平方和最小 即求: 的最小值。

计算线性回归、指数回归公式

最近要计算线性回归、指数回归的公式。就整理下吧,以便帮助他人,少走弯路。 发现网上线性回归的资料还算详细,但是指数回归资料很少,还会误导人。 线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互…

Python实现线性回归(公式推导+源代码)

写这篇文章之前,首先要对自己做一个小小的反思,很多时候在学习新技术的时候,看到出了什么什么框架,在这个框架上什么什么方法可以直接拿过来用,这样的好处就是我们可以减少写代码量,几个函数就可以帮我们解…

线性回归方程推导

理论推导 机器学习所针对的问题有两种:一种是回归,一种是分类。回归是解决连续数据的预测问题,而分类是解决离散数据的预测问题。线性回归是一个典型的回归问题。其实我们在中学时期就接触过,叫最小二乘法。 线性回归试图学得一个…

线性回归相关知识及公式推导

转自https://www.cnblogs.com/GuoJiaSheng/p/3928160.html 在现实生活中普遍存在着变量之间的关系,有确定的和非确定的。确定关系指的是变量之间可以使用函数关系式表示,还有一种是属于非确定的(相关),比如人的身高和…

线性模型(二)-- 线性回归公式推导

我们在初中学习线性方程的时候就已经接触过回归的相关概念,在这里简单介绍一下机器学习中的“回归”,机器学习的目的有两个:回归和分类,回归是解决连续数据的预测问题,而分类是为了解决离散数据的预测问题。线性回归是…

一元线性回归公式推导

一元线性回归公式推导 平均损失函数: 对w,b求偏导: 可求解(先求b,再求w): 或: 这两个式子中的w是等价de,可由第一个w分子分母同除n,再由下式得到第二个w: 参考文献: https://zhidao.baidu.com/q…

线性回归模型公式推导

线性回归公式推导 线性模型一、线性回归(一)一元线性回归1. 由最小二乘法得出损失函数2. 证明损失函数 E ( w , b ) E(w,b) E(w,b)是关于 w w w和 b b b的凸函数3. 对损失函数求关于b和w的一阶偏导数4. 令一阶偏导数为0解出 w w w和 b b b (二…

线性回归--公式推导

线性回归 -- LIner regression 线性回归&#xff08;Linear regression&#xff09;是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析 —维基百科 线性回归--理论推导 <1> 数据: 本次推导使用的数据为--银行贷款数据。 &…

线性回归原理及算法

今天给大家的介绍一下线性模型&#xff0c;线性回归模型虽说模型简单&#xff0c;但距今为止依旧在机器学习算法中占据一定的地位&#xff0c;不仅如此&#xff0c;而且在实际的业务应用中也是屡试不爽的机器学习算法。 线性回归模型公式&#xff1a;YXwb &#xff08;一个X变量…

机器学习之线性回归

线性回归是最简单的一个函数拟合过程&#xff0c;一元线性回归公式为yaxb。 我们做拟合&#xff0c;首先需要定义一个损失函数。一般常用的损失函数有&#xff1a;0-1损失函数和绝对值损失函数 0-1损失是指&#xff0c;预测值和目标值不相等为1&#xff0c;否则为0&#xff1a;…

在线Cron表达式生成器,定时任务表达式生成器

近期项目需要在后台管理系统的页面上生成定时任务表达式存入定时任务系统的数据库中&#xff0c;就是那种根据后台管理员指定的时分秒年月日生成一个定时任务表达式。 一时间有点不好下手。我可以根据后台管理员指定的时分秒年月日手动写一个定时任务表达式&#xff0c;也可以…