机器学习——线性模型学习

article/2025/9/18 7:12:07

线性回归

    • 线性回归
      • 多元线性回归
      • 对数线性回归
      • 对数几率回归
      • 线性判别分析(LDA)
      • 多分类任务中的LDA
    • 多分类学习
      • OvR、OvO
      • MvM

线性回归

主要目标确定
在这里插入图片描述
如何确定w和b呢?关键在于如何衡量f(x)与y的差别
在这里插入图片描述
此种衡量误差的方法称为均方误差也称为欧式距离
求解w和b使上述方程最小化的过程称为线性回归模型的最小二乘”参数估计“

多元线性回归

针对多个属性的数据集D,此时试图学得
在这里插入图片描述
我们把w和b吸收入向量形式在这里插入图片描述
再将数据集表示为一个 m ∗ ( d + 1 ) m*(d+1) m(d+1)的矩阵X
在这里插入图片描述
令上式为零可得 w w w最优解的闭式解
在这里插入图片描述

X T X X^TX XTX为满秩矩阵或正定矩阵时,令式 ( 3.10 ) (3.10) (3.10)为零,得
在这里插入图片描述
则最终学习到的线性回归模型为
在这里插入图片描述
然而,现实任务中 X T X X^TX XTX 往往不是满秩矩阵 。例如在许多任务中我们会遇到大量的变量,其数目甚至超过样例数,导致 X X X的列数多于行 数。 X T X X^TX XTX显然不满秩.此时可解出多个解,它们都能使均方误差小化。选择哪个解作为输出将由学习算法的归纳偏好决定, 常见的做法是引入正则化 (regularization) 项。

对数线性回归

目的令模型预测值逼近y的衍生物。例如我们认为示例所对应的输出标记是在指数尺度上变化,则可将输出标记的对数作为线性模型逼近的目标。
l n y = w T x + b ln y=w^Tx+b lny=wTx+b
这里的对数函数起到了将线性回归型的预测值与真实标记联系起来的作用。
在这里插入图片描述

更一般地,考虑单调可微函数 g ( . ) g(.) g(.),令
y = g − 1 ( w T x + b ) y=g^{-1}(w^Tx+b) y=g1(wTx+b)
这样得到的模型称为广义线性模型,其中函数 g ( . ) g(.) g(.)称为联系函数

对数几率回归

目的时应用于分类任务。
答案蕴含在 y = g − 1 ( w T x + b ) y=g^{-1}(w^Tx+b) y=g1(wTx+b)中,只需要找到一个单调可微函数将分类任务的真实标记y与预测值联系起来。
二分类任务:
单位阶跃函数
在这里插入图片描述
但从图可看出,单位阶跃函数不连续,因此不能直接用作式(3.15)
g − ( . ) g^-(.) g(.). 于是我们希望找到能在一定程度上近似单位阶跃函数的
代函数
,并希望它单调可微。对数几率函数正是这样一个常用的替代函数(Sigmoid函数):
y = 1 1 + e − z y=\cfrac{1}{1+e^{-z}} y=1+ez1

代入 y = g − 1 ( w T x + b ) y=g^{-1}(w^Tx+b) y=g1(wTx+b)此式

y = 1 1 + e − ( w T x + b ) y=\cfrac{1}{1+e^{-(w^Tx+b)}} y=1+e(wTx+b)1

l n y 1 − y = w T x + b (3.19) ln\cfrac{y}{1-y}=w^Tx+b \tag{3.19} ln1yy=wTx+b(3.19)

若将y视为样本 x x x作为正例的可能性,则 1 − y 1-y 1y是其反例可能性。两者比值称为几率。

( 3.19 ) (3.19) (3.19)进行改写
l n p ( y = 1 ∣ x ) p ( y = 0 ∣ x ) = w T x + b ln\cfrac{p(y=1\mid{x})}{p(y=0\mid{x})}=w^Tx+b lnp(y=0x)p(y=1x)=wTx+b
显然有:
p ( y = 1 ∣ x ) = e w T x + b 1 + e w T x + b p(y=1\mid{x})=\cfrac{e^{w^Tx+b}}{1+e^{w^Tx+b}} p(y=1x)=1+ewTx+bewTx+b

p ( y = 0 ∣ x ) = 1 1 + e w T x + b p(y=0\mid{x})=\cfrac{1}{1+e^{w^Tx+b}} p(y=0x)=1+ewTx+b1

于是可通过极大似然法来估计 w w w b b b

l ( w , b ) = ∑ i = 1 m l n p ( y i ∣ x i ; w , b ) l(w,b)=\sum_{i = 1} ^mlnp(y_i\mid{x_i};w,b) l(w,b)=i=1mlnp(yixi;w,b)

这个式子的意思是以参数 w b wb wb确定的概率估计越接近于其真实标记越好。
PS:后面的公式太多懒得打了,这些公式大家最好自己推导一遍。对于学习理解有帮助
在这里插入图片描述

优点:特别需注意到,虽然它的名字是"回归",但实际却是一种分类学习方法。
这种方法有很多优点,例如它是直接对分类可能性进行建模,无需事先假设数据分布,这样就避免了假设分布不准确所带来的问题
它不是仅预测出"类别",而是可得到近似概率预测,这对许多需利用概率辅助决策的任务很有用;
此外,对率函数是任意阶可导的凸函数,有很好的数学性质,现有的许多数值优化算法都可直接用于求取最优解

线性判别分析(LDA)

LDA 的思想非常朴素: 给定训练样例集,设法将样例投影到一条直线上,使得同样例的投影点尽可能接近、异类样例的投影点尽可能远离;在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定样本的类别。
在这里插入图片描述
前提定义: X i X_i Xi:类示例集合
μ i \mu_i μi:均值向量
∑ i \sum_{i} i:协方差矩阵
观察图像,两类样本的中心在直线上的投影分别为
w T μ 0 w^T\mu_0 wTμ0 w T μ 1 w^T\mu_1 wTμ1
若将所有样本点都投影到直线上,则两类样本的协方差为
w T ∑ 0 μ 0 w^T\sum_{0} \mu_0 wT0μ0 w T ∑ 1 μ 1 w^T\sum_{1}\mu_1 wT1μ1
目的希望同类样例的投影点尽可能接近,即同类样本的协方差尽可能小 w T ∑ 0 w + w T ∑ 1 w w^T\sum_{0}w+w^T\sum_{1}w wT0w+wT1w
希望异类样本的投影点尽可能远离,即类中心之间的距离 ∥ w T μ 0 − w T μ 1 ∥ 2 2 \Vert w^T\mu_0- w^T\mu_1\Vert_2^2 wTμ0wTμ122尽可能大
在这里插入图片描述

对于3.33式的计算,参照协方差矩阵

在这里插入图片描述

好,得出阶段性目标
最大化
J = w T S b w w T S w w J=\cfrac{w^TS_bw}{w^TS_ww} J=wTSwwwTSbw
依据这个式子,如何确定 w w w

在这里插入图片描述
L ( w , λ ) = − w T S b w + λ ( w T S w w − 1 ) L(w,\lambda)=-w^TS_bw+\lambda(w^TS_ww-1) L(w,λ)=wTSbw+λ(wTSww1)
∂ L ( w , λ ) ∂ w = − S b w + λ S w w \frac{\partial L(w,\lambda)}{\partial w}=-S_bw+\lambda S_ww wL(w,λ)=Sbw+λSww
令上式=0
S b w = λ S w w S_bw=\lambda S_ww Sbw=λSww

在这里插入图片描述

多分类任务中的LDA

推导参考公众号【计算机视觉联盟】
在这里插入图片描述
多分类LDA将样本投影到 d ′ d' d维空间, d ′ d' d通常远小于数据原有的属性 d d d。于是,可通过投影减小样本点维数,且投影过程中使用了类别信息。LDA是一种经典的监督降维技术

多分类学习

多分类学习的基本思路是”拆解法“。将多分类任务拆为若干个二分类任务求解。
在这里插入图片描述

OvR、OvO

在这里插入图片描述
区别:容易看出,OvR 只需训练 N N N个分类器
OvO 需训练 N ( N − 1 ) / 2 N(N - 1)/2 N(N1)/2 个分类器
因此,OvO的存储开销和测试时间开销通常比 OvR 更大。
但在训练时,OvR 的每个分类器均使用全部训练样例,而 OvO 的每个分类器仅用到两个类的样例
因此,在类别很多时, OvO 的训练时间开销通常比 OvR 更小
至于预测性能则取决于具体的数据分布,在多数情形下两者差不多。

MvM

MvM 是每次将若干个类作为正类,若干个其他类作为反类。显然, OvO、OvR 是MvM 的特例。MvM 的正、反类构造必须有特殊的设计,不能随意选取。这里我们介绍 种最常用的 MvM 技术"纠错输出码" (ECOC)。

在这里插入图片描述


http://chatgpt.dhexx.cn/article/XLXZSMEJ.shtml

相关文章

机器学习-模型训练

目录 1.逻辑回归模型 2. KNN模型 3.随机森林模型 4.决策树模型 5.贝叶斯模型 6.支持向量机模型 步骤: 导入必要的第三方库读取数据划分数据集可选操作,引入停用词,当作参数传入特征提取器特征提取提取的向量当作特征传入逻辑回归模型…

机器学习——训练模型

机器学习——训练模型 线性回归 y ^ h Θ ( x ) Θ ∗ x 其中 Θ 是模型的参数向量,其中包括偏置项 Θ 0 和特征权重 Θ 1 至 Θ n x 是实例的特征向量,包括从 x 0 至 x n , x 0 始终为 0 Θ ∗ x 是向量 Θ 与 x 点积 h Θ 是假设函数,使…

从机器学习到大模型(零基础)

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 目录 前言 一、机器学习 1.监督学习 (1)线性回归模型 (2)多元线性回归模型 (3)二元分类模型 &a…

模型学习

LeNet AlexNet LeNet: 在大的真实数据集上的表现并不尽如⼈意。 1.神经网络计算复杂。 2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。 神经网络的特征提取:通过学习得到数据的多级表征,并逐级表示越来越抽象的概念或模式。 神经网络发展…

建模师经验分享:模型学习方法!零基础小白必备知识速看

游戏建模初学者大多存在三个大问题,一是工具的使用不够熟练,甚至有些功能还不知道,二是对布线的规范没有太大的要求和了解,三是对游戏制作流程不清晰和板绘下的功力不够,对贴图制作用工少,甚至有些人还处于一直做白膜的阶段。 那么对大多说想要要学游戏建模的学习者想要…

vue3实现抽屉组件中实现上一条和下一条

简单的模拟在用户查看学员详情时,点击上一条和下一条实现数据切换。 实现逻辑:首先将点击的用户的下标传给抽屉组件,然后监听下标的变化,判断是否为最后一个用户,是就设置样式并禁用按钮。上一条和下一条按钮绑定点击…

SQL 获取下一条数据

这里假设有一张员工表,有三个字段 (ID,员工姓名,年龄): CREATE TABLE [dbo].[Employee] ( [ID] [int] IDENTITY(1,1) NOT NULL, [Name] [varchar](50) NOT NULL, [Age] [int] NOT NULL ) ON [PRIMARY] 这…

点击下一条

<view class"content"><view class"text-area"><button type"primary" click"next()">点击下一条</button></view><view class"title">{{title}}</view> </view><scrip…

关于MySqL数据库查询当前数据的上一条和下一条数据

如上图所示第14行数据的上一条和下一条&#xff0c;id都不是连续的&#xff0c;因此意图通过id-1或者id1是肯定行不通的&#xff0c;那么怎么办呢&#xff1f;其实也简单就是查询比id14小的元素中的最大值&#xff0c;比id14大的元素中的最小值。 select * from tb_user where…

Mysql取上一条,下一条

2019独角兽企业重金招聘Python工程师标准>>> 根据自增主键还获取。 上一条&#xff1a; SELECT * FROM tableName WHERE Nid<? ORDER by Nid desc 下一条&#xff1a; SELECT * FROM tableName WHERE Nid>? ORDER by Nid asc 使用PDO的可以只获取一条&#…

配置静态路由/下一跳知识

配置静态路由/下一跳地址 下一跳简单说法&#xff1a; *简单的来说&#xff0c;可以从字面理解&#xff0c;下一跳就是指路由器路由选择的下面一次跳跃*拓扑图 先给路由器和PC1,PC2进行配置IP地址 路由器1 路由器2 路由器3 然后在设置下一跳 命令如下&#xff1a; 目标…

软件测试周刊(第24期):最不重要的素质就是智商

这里记录过去一周我们看到的软件测试及周边的行业动态&#xff0c;周五发布。 本周刊开源&#xff08;GitHub: SoftwareTestingWeekly &#xff09;&#xff0c;欢迎提交 issue&#xff0c;投稿或推荐软件测试相关的内容。 科普 Windows11 杨净 梦晨 微软 CEO 纳德拉曾说&am…

面试 Notes|2021 年秋季 Android 弱鸡艰难求职记。。。

扯犊子之前&#xff0c;先放一张面试图吧&#xff1a; 求职&#xff1f;求生&#xff1f;Start… 说来也怪&#xff0c;从入职的第一天就觉得很不舒服&#xff0c;然后慢慢产生离开的念头&#xff0c;随后转变思想&#xff0c;回去打算按照步骤继续学习&#xff0c;避免下次求…

微信官方:刚刚拆散一桩19万元的姻缘

来源:微信派 这种微信电话&#xff0c;你一定还没接到过。 来自云南的张先生最近凑巧接到了一个。 接到微信支付客服电话时&#xff0c;他正在进行一笔19万元的转账。张先生称&#xff0c;他在某视频平台结识一位“女神”&#xff0c;“女神”主动要求加张先生微信&#xff0c;…

苹果新版iOS疯狂致敬安卓和微信,新Mac搭载自研CPU!这届苹果开发者大会料足槽点密...

点击上方“3DCVer”&#xff0c;选择“星标” 干货第一时间送达 当你一夜醒来&#xff0c;无数个关于苹果最新发布会的片段已铺天盖地。 有说苹果自嗨的——因为作为史上最特殊的一次WWDC&#xff0c;库克完全就在空无一人的会场独自演讲。 也有吐槽苹果这次疯狂“致敬”谷歌、…

苹果出现长方形透明框_看到我卧槽!这是苹果史上最疯狂的开发者大会

一场疫情加一场暴乱&#xff0c;让过久了滋润日子的苹果在2020年尝到辛酸... but...收入可减&#xff0c;店面可关&#xff0c;一年一度的 WWDC 大会可不能不办&#xff01; 在此生意艰难之际&#xff0c;没有什么比这管鸡血更能提振消费者的热情了&#xff5e; 按照惯例&#…

疯狂ios讲义之创建cocos2d项目(3)

13.3.3 cocos2d项目结构和代码分析 这一节将向游戏开发者介绍HelloWorld项目的目录结构&#xff0c;以及各个部分是如何协同工作的。通过本节的学习&#xff0c;你会对各个部分之间的联系有个大致的了解。 图13.22显示了HelloWorld项目的项目导航面板。 图13.22 cocos2d项目引…

2016如何突破自我,这么疯狂的事谁敢做

2016一定要做一件令自己疯狂的事&#xff0c;想想自己20多年过去了&#xff0c;却发现没有什么可以回忆的事情是多么的悲催…… 再不疯狂我们就老了…… 2016趁自己还年轻&#xff0c;还有激情&#xff0c;还有动力&#xff0c;放肆的去疯狂…… 一定要疯狂的去玩&#xff0c;…

前有视觉中国后有来电,知识产权勒索为何屡禁不止?

不久前&#xff0c;一张黑洞照片在全网引发了轩然大波&#xff0c;因知识产权被外界熟知的公司“视觉中国”在诸多蓝V的狂轰滥炸下狼狈收场。起因就在于&#xff0c;视觉中国高举知识产权大旗却对外行使近乎于“敲诈勒索”之事。“黑洞事件”后&#xff0c;就在公众以为知产行业…

2016如何突破自我,必做十件疯狂的事

2016一定要做一件令自己疯狂的事&#xff0c;想想自己20多年过去了&#xff0c;却发现没有什么可以回忆的事情是多么的悲催…… 再不疯狂我们就老了…… 2016趁自己还年轻&#xff0c;还有激情&#xff0c;还有动力&#xff0c;放肆的去疯狂…… 一定要疯狂的去玩&#xff0…