机器学习: 提升

article/2025/8/18 22:18:08

文章目录

    • Github
    • 提升的概念理解
        • 与随机森林的比较
        • 提升算法
    • GBDT
        • 参数设置和正则化
    • XGBoost
    • Adaboost
        • 算法总结

Github

系列文章 pdf 版本已经上传至: https://github.com/anlongstory/awsome-ML-DL-leaning/tree/master/xiaoxiang-notes
欢迎 Star 和下载 ?

提升的概念理解

这部分是紧紧衔接《机器学习: 决策树与随机森林》 部分内容的。首先说明一个它们与随机森林方法的区别

与随机森林的比较

  • 随机森林是随机选择 k 个特征去构建 CART 树,重复 m 次,得到的 m 个决策树的最终结果求平均得到最后的结果。这些模型之间相互是独立产生的,只是最后投票的时候将它们结果联系在一起。
  • 提升的方法思想是每一步产生一个弱预测模型(如决策树),并加权累加到总模型中。现在第 n 项的模型预测都是依赖前面 n-1 项的结果得到的,依据的是损失函数的梯度方向,所以称之为梯度提升(Gradient Boosting)

提升算法

梯度提升算法首先给定一个目标损失函数,它的定义域是所有可行的弱函数集合(基函数),提升算法通过迭代的选择一个负梯度方向上的基函数来逐渐逼近局部极小值
上面这段话转化成机器学习中的概念和数学表达就是:
首先要给定一个目标损失函数:
目标函数是从我们的数据中得到的,我们表示输入数据为: ( x 1 → , y 1 ) , ( x 2 → , y 2 ) , . . . , ( x n → , y n ) (\overrightarrow {x_1},y_1),(\overrightarrow {x_2},y_2),... ,(\overrightarrow {x_n},y_n) (x1 ,y1),(x2 ,y2),...,(xn ,yn),其中 x i → \overrightarrow {x_i} xi 表示输入向量, y i y_i yi 代表对应的标签,目标是找到一个近似函数 F ^ ( x → ) \hat{F}(\overrightarrow {x}) F^(x ) 使得损失函数 L ( y , F ( x ) ) L\left( y,F(x)\right) L(y,F(x)) 的损失值最小,这里的损失函数典型的就是:
L ( y , F ( x ) ) = 1 2 ( y − F ( x ) ) 2 L\left( y,F(x)\right)=\frac{1}{2}\left( y-F(x)\right)^2 L(y,F(x))=21(yF(x))2 L ( y , F ( x ) ) = ∣ y − F ( x ) ∣ L\left( y,F(x)\right)=\left|y-F(x)\right| L(y,F(x))=yF(x)
现在可以假设我们的 F ( x ) F(x) F(x) 是一族基函数 f i ( x ) f_i(x) fi(x) 的加权和:
F ( x → ) = ∑ i = 1 M γ i f i ( x ) + c o n s t F \left ( \overrightarrow{x} \right )=\sum_{i=1}^{M} \gamma_i f_i(x)+const F(x )=i=1Mγifi(x)+const

(1)

我们以贪心的思路来扩展 F ( x ) F(x) F(x) 中的基函数,但是每次要选择最优的基函数还是很困难,所以这里任然使用 梯度下降 算法近似计算。
将所给样本代入基函数 f ( x ) f(x) f(x) 得到 f ( x 1 ) , f ( x 2 ) , . . . , f ( x n ) f(x_1),f(x_2), ... , f(x_n) f(x1),f(x2),...,f(xn), 从而可以得到关于目标函数 L L L的向量,为 L ( y 1 , f ( x 1 ) ) , L ( y 2 , f ( x 2 ) ) , . . . , L ( y n , f ( x n ) ) L(y_1,f(x_1)),L(y_2,f(x_2)), ... , L(y_n,f(x_n)) L(y1,f(x1)),L(y2,f(x2)),...,L(yn,f(xn)),我们对这个向量对于 f f f 求偏导,让它们沿着 负梯度方向下降一点点:
F m ( x → ) = F m − 1 ( x → ) − γ m ∑ i = 1 n ▽ f L ( y i , F m − 1 ( x → ) ) F_m(\overrightarrow{x})=F_{m-1}(\overrightarrow{x}) - \gamma_m \sum_{i=1}^{n}\bigtriangledown _fL(y_i,F_{m-1} (\overrightarrow{x})) Fm(x )=Fm1(x )γmi=1nfL(yi,Fm1(x ))
(2)

这里的 γ m \gamma_m γm 就是步长,可以使用线性搜索求最优步长。
γ m = a r g m i n γ ∑ i = 1 n L ( y i , F m ( x → ) ) \gamma_m= \underset{\gamma}{argmin} \sum_{i=1}^{n}L(y_i,F_m(\overrightarrow{x})) γm=γargmini=1nL(yi,Fm(x ))
(3)

综上所述:

  • 我们可以先给定一个初始基函数 F 0 ( x ) = a r g m i n γ ∑ i = 1 n L ( y i , γ ) F_0(x)=\underset{\gamma}{argmin} \sum_{i=1}^{n}L(y_i, \gamma) F0(x)=γargmini=1nL(yi,γ),然后通过求偏导计算为伪残差 : r i m = [ ∂ L ( y i , F ( x → ) ) ∂ F ( x → ) ] F ( x → ) = F m − 1 ( x → ) r_{im}=\left[ \frac{\partial L(y_i,F( \overrightarrow{x}))}{\partial F( \overrightarrow{x})} \right]_{F( \overrightarrow{x})=F_{m-1}(\overrightarrow{x})} rim=[F(x )L(yi,F(x ))]F(x )=Fm1(x )
  • 使用数据 ( x → i , r i m ) ( \overrightarrow{x}_i,r_{im}) (x i,rim) 计算拟合残差的基函数 f m ( x ) f_m(x) fm(x)
  • 使用公式(3)计算步长 r m r_m rm
  • 更新模型 F m ( x → ) = F m − 1 ( x → ) − γ m f m ( x i → ) F_m(\overrightarrow{x})=F_{m-1}(\overrightarrow{x}) - \gamma_mf_m(\overrightarrow{x_i}) Fm(x )=Fm1(x )γmfm(xi )

GBDT

梯度提升树(GBDT)的基函数就是决策树(CART 树),第 m 步的梯度提升是根据伪残差数据计算第 m 棵决策树 t m ( x ) t_m(x) tm(x) 的。这里我们可以令树 t m ( x ) t_m(x) tm(x) 的叶节点数目为 J J J,这样决策树就将输出空间划分成了 J J J 个不相交的区域 R 1 m , R 2 m , . . . , R j m R_{1m},R_{2m},...,R_{jm} R1m,R2m,...,Rjm,并且决策树可以在每个区域中给出某个类型的确定性预测。

以上面图为例,这里 J = 3 J=3 J=3,对应的确定性预测值就是下面的 +2,+0.1,-1,所以对于决策树,对于输入 x x x ,决策树可以表示为:
t m ( x ) = ∑ j = 1 J b j m I ( x ∈ R j m ) t_m(x)= \sum_{j=1}^{J}b_{jm}I(x \in R_{jm}) tm(x)=j=1JbjmI(xRjm)

(4)

其中 b j m b_{jm} bjm 是样本 x x x 在区域 R j m R_{jm} Rjm 的预测值。
所以根据上面的分析,这里直接可以将基函数表示成公式(4)的形式,代入公式(3)可得:
γ m = a r g m i n γ ∑ i = 1 n L ( y i , F m − 1 ( x → ) + γ t m ( x → ) ) \gamma_m= \underset{\gamma}{argmin} \sum_{i=1}^{n}L(y_i,F_{m-1}(\overrightarrow{x})+\gamma t_m(\overrightarrow{x})) γm=γargmini=1nL(yi,Fm1(x )+γtm(x ))
(5)

对树的每个区域分别采用线性搜索计算步长,从而系数 b j m b_{jm} bjm 被合并到步长中。

参数设置和正则化

对训练集过度拟合会降低模型的泛化能力,所以训练过程中需要加入一些正则化技术来降低过拟合:

  • 复杂度使用叶节点个数或者叶节点预测值的平方(一般叶节点树为 4-8 之间)
  • 决策树剪枝 (包括对包含最少样本数目做限制)
  • 梯度提升的迭代次数也要注意

当损失函数是最小平方误差、绝对值误差时 GBDT 解决的是回归问题,当损失函似是多类别的 Logistic 似然函数则是分类问题。

XGBoost

前面提到,一颗决策树的核心就是树结构和叶权值。XGBoost 主要就是采用泰勒展开式:
f ( x + △ x ) ≈ f ( x ) + f ′ ( x ) △ x + 1 2 f ′ ′ ( x ) △ x 2 f(x+\bigtriangleup x) \approx f(x) + f ' (x) \bigtriangleup x+ \frac{1}{2} f''(x) \bigtriangleup x^2 f(x+x)f(x)+f(x)x+21f(x)x2

(6)

将二阶导数信息加入考虑范围,这里用 g i g_i gi 表示一阶导数, h i h_i hi 表示二阶导数,定义:
G j = ∑ i ∈ I j g i , H j = ∑ i ∈ I j h i G_j=\sum_{i \in I_{j}}g_i,H_j=\sum_{i \in I_{j}}h_i Gj=iIjgiHj=iIjhi
(7)

最终经过复杂的推导,这里使目标函数对预测权值求偏导可以得到:
w j = − G j H j + λ w_j= - \frac{G_j}{H_j+ \lambda} wj=Hj+λGj
代回目标函数可以得到:
J ( f t ) = − 1 2 ∑ j = 1 T G j 2 H j + λ + γ T J(f_t)= -\frac{1}{2}\sum_{j=1}^{T} \frac{G_j^2}{H_j+ \lambda}+ \gamma T J(ft)=21j=1THj+λGj2+γT
(8)

这里的 T T T 表示叶节点的个数。以下面的图来做一个举例,假设有 5 个样本,它们对应的一阶,二阶梯度信息就是 g j , h j g_j,h_j gj,hj,这样的决策树

对于当前节点,我们可以计算所有可行的划分后的 J ( f t ) J(f_t) J(ft) ,然后选择所有可行划分中 J ( f t ) J(f_t) J(ft) 最小的分割点,换而言之,我们枚举可行的分割点,选择增益最大的划分,继续同样的操作,直到满足某阈值或得到纯节点,这里计算收益的公式可以表示为:
G a i n ( ϕ ) = 1 2 [ G L 2 H L + λ + G R 2 H R + λ − ( G L + G R ) 2 H L + H R + λ ] − γ Gain(\phi)= \frac{1}{2} \left[ \frac{G_L^2}{H_L+ \lambda} + \frac{G_R^2}{H_R+ \lambda}- \frac{(G_L+G_R)^2}{H_L+H_R+ \lambda} \right] - \gamma Gain(ϕ)=21[HL+λGL2+HR+λGR2HL+HR+λ(GL+GR)2]γ

(9)

这里的下标 G L G_L GL, G R G_R GR 分别表示当选择一个分割点时,被划分到对应左右两边区域的一阶梯度总合。

所以综上所述:
相较于 GBDT ,XGBoost 使用可二阶导数信息,可以更快的在训练集上收敛,也属于随即森林类的方法,本身比较容易过拟合,因为实现过程中使用了并行/多核运算,所以它的速度比较快。

Adaboost

前面介绍的两个 GBDT, XGBoost 都是通过前面的模型来推断出下一个模型,这一小节要介绍的 Adaboost (自适应性提升方法)则是对训练数据集每个样本赋予一个权值,然后在每次迭代的过程中对这个权值分布进行不断调整,包括计算出每个模型的权值系数,最后叠加,由多个弱分类器叠加成一个强分类器。
首先划分问题的每个基本分类器看作是一个二分类问题: G m ( x ) : χ ∈ { − 1 , + 1 } G_m(x): \chi \in \left \{ -1,+1 \right \} Gm(x):χ{1,+1}
基本分类器的分类误差可以表示为: e m = ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) e_m=\sum_{i=1}^{N}w_{mi}I(G_m(x_i) \neq y_i) em=i=1NwmiI(Gm(xi)̸=yi)
通过上面的误差率计算出当前基本分类器的系数为: α m = 1 2 l o g 1 − e m e m \alpha_m= \frac{1}{2}log\frac{1-e_m}{e_m} αm=21logem1em

(10)

根据上面的分类器系数来更新训练数据集的权值分布,式中的 Z m Z_m Zm 主要是为了归一化操作,使所有权值成一个概率分布:
w m + 1 , i = w m i Z m e x p ( − α m y i G m ( x i ) ) , 其 中 Z m = ∑ i = 1 N w m i e x p ( − α m y i G m ( x i ) ) w_{m+1,i}=\frac{w_{mi}}{Z_m}exp(-\alpha_my_iG_m(x_i)),其中 Z_m=\sum_{i=1}^{N}w_{mi}exp(-\alpha_my_iG_m(x_i)) wm+1,i=Zmwmiexp(αmyiGm(xi)),Zm=i=1Nwmiexp(αmyiGm(xi))

(11)

最后构建的分类器就是所有基本分类器的线性组合:
f ( x ) = ∑ m = 1 M α m G m ( x ) f(x)=\sum_{m=1}^{M}\alpha_mG_m(x) f(x)=m=1MαmGm(x)
(12)

这里以李航博士《统计学习方法》中的例子说明上述算法。
首先假设我们有 10 个数据点,对应编号 X 为 0-9,它们对应的标签为 { − 1 , + 1 } \{ -1,+1\} {1,+1}

X0123456789
Y111-1-1-1111-1
W0.10.10.10.10.10.10.10.10.10.1

刚开始我们都是假设权值均匀分布(认为重要性相同),所以均值都为 1 N \frac{1}{N} N1, N N N 为样本个数。经过计算我们的阈值设为 2.5 的时候基本分类器的分类误差率使最低的,所以第一个分类器为:
G 1 ( x ) = { 1 , x &lt; 2.5 − 1 , x &gt; 2.5 G_1(x)=\left\{\begin{matrix} 1 ,x&lt;2.5\\ -1,x&gt;2.5 \end{matrix}\right. G1(x)={1,x<2.51,x>2.5
这时候的误差率为 e 1 = 0.3 e_1=0.3 e1=0.3 (刚开始权值相同,阈值 2.5 的时候,10个里面分类错了 3 个,所以为 0.3),计算出 G 1 G_1 G1 的系数:
α 1 = 1 2 l o g 1 − e 1 e 1 = 0.4236 \alpha_1= \frac{1}{2}log \frac{1-e_1}{e_1}=0.4236 α1=21loge11e1=0.4236
所以当前分类器为 f 1 ( x ) = 0.4236 ∗ G 1 ( x ) f_1(x)=0.4236*G_1(x) f1(x)=0.4236G1(x),分类器 s i g n ( f 1 ( x ) ) sign(f_1(x)) sign(f1(x)) 在训练集上有 3 个误分类点。
对于上面的结果使用公式(11)进行计算,得到新的权值分布为:

X0123456789
Y111-1-1-1111-1
W0.07150.07150.07150.07150.07150.07150.16660.16660.16660.0715

可以看到刚才分错的 3 个样本的权值比其他正确分类的都要大了,模型会放更多的精力在这些分错的例子上。
通过比较不同的阈值得到在这个分布上,阈值取 8.5 时误差率最低,这时基本分类器为:
G 2 ( x ) = { 1 , x &lt; 8.5 − 1 , x &gt; 8.5 G_2(x)=\left\{\begin{matrix} 1 ,x&lt;8.5\\ -1,x&gt;8.5 \end{matrix}\right. G2(x)={1,x<8.51,x>8.5
这时候的误差率为 e 2 = 0.2143 e_2=0.2143 e2=0.2143 (这时候分错的是 x<8.5 左边的 3 个标签为 -1 的样本,所以为 0.0715*3)
α 2 = 1 2 l o g 1 − e 2 e 2 = 0.6496 \alpha_2= \frac{1}{2}log \frac{1-e_2}{e_2}=0.6496 α2=21loge21e2=0.6496
所以当前分类器为 f 2 ( x ) = 0.4236 ∗ G 1 ( x ) + 0.6496 ∗ G 2 ( x ) f_2(x)=0.4236*G_1(x)+0.6496*G_2(x) f2(x)=0.4236G1(x)+0.6496G2(x), 分类器 s i g n ( f 2 ( x ) ) sign(f_2(x)) sign(f2(x)) 在训练数据集上有 3 个误分类点。
对于上面的结果使用公式(11)进行计算,得到新的权值分布为:

X0123456789
Y111-1-1-1111-1
W0.04550.04550.04550.16670.16670.16670.10600.10600.10600.0455

通过比较不同的阈值得到在这个分布上,阈值取 5.5 时误差率最低,这时基本分类器为:
G 3 ( x ) = { 1 , x &gt; 5.5 − 1 , x &lt; 5.5 G_3(x)=\left\{\begin{matrix} 1 ,x&gt;5.5\\ -1,x&lt;5.5 \end{matrix}\right. G3(x)={1,x>5.51,x<5.5
这时候的误差率为 e 3 = 0.1820 ( 0.0455 ∗ 4 ) e_3=0.1820(0.0455*4) e3=0.1820(0.04554)
α 3 = 1 2 l o g 1 − e 3 e 3 = 0.7514 \alpha_3= \frac{1}{2}log \frac{1-e_3}{e_3}=0.7514 α3=21loge31e3=0.7514
所以当前分类器为 f 3 ( x ) = 0.4236 ∗ G 1 ( x ) + 0.6496 ∗ G 2 ( x ) + 0.7514 ∗ G 3 ( x ) f_3(x)=0.4236*G_1(x)+0.6496*G_2(x)+0.7514*G_3(x) f3(x)=0.4236G1(x)+0.6496G2(x)+0.7514G3(x),分类器 s i g n ( f 3 ( x ) ) sign(f_3(x)) sign(f3(x)) 在训练数据集上有 0 个误分类点。

还可以根据当前的模型系数,继续更新权值分布,只是本题到这里已经满足需求了。

算法总结

上面通过对实例讲解介绍了 Adaboost 的基本步骤和计算方法,其中直接给出的权重计算公式(10)和权重调整公式(11)背后都是有前向分布算法包括一些复杂的数学推导的,这里能力有限,就不展开介绍,有兴趣的读者可以自行查找对应资料。

Adaboost 算法是模型为加法模型、损失函数为指数函数、每一个基函数的学习算法为前向分布算法时的二类学习方法。,其训练误差是以指数速率下降的,因为它不需要事先知道下届 γ \gamma γ,具有自适应性(Adaptive)。

Bagging 能够减少训练方差(Variance),对于不剪枝的决策树、神经网络等学习器有良好的集成效果。Boosting 减少偏差(Bias),能够基于泛化能力较弱的学习器构造强学习器。


http://chatgpt.dhexx.cn/article/45SDcnJI.shtml

相关文章

多模态深度学习综述:网络结构设计和模态融合方法汇总

点击上方“机器学习与生成对抗网络”&#xff0c;关注"星标" 获取有趣、好玩的前沿干货&#xff01; 作者丨小奚每天都要学习知乎 编辑丨极市平台 来源丨https://zhuanlan.zhihu.com/p/152234745 一、简介 从2010年开始&#xff0c;深度学习方法为语音识别&#xff0…

回归分析(数据拟合---MATLAB和1stopt软件)

回归分析&#xff08;regression analysis)指的是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。 回归分析按照涉及的变量的多少&#xff0c;分为一元回归和多元回归分析&#xff1b; 按照因变量的多少&#xff0c;可分为简单回归分析和多重回归分析&#xf…

利用Excel的LINEST计算线性拟合的斜率和截距的不确定性

目录 线性拟合的斜率和截距的不确定性Excel数组函数LINESTLINEST结果的含义LINEST输出的10个统计参数含义如下&#xff1a; 模型预测 y ^ \widehat{y} y ​ m x b mxb mxbReferences 线性拟合的斜率和截距的不确定性 利用熟悉的Excel绘图功能&#xff0c;可以根据距离-高程散…

机器学习算法——Kmeans

1.k-mean算法的原理 1、选取K个点做为初始聚集的簇心 2、分别计算每个样本点到K个簇核心的距离&#xff08;这里的距离一般取欧氏距离或余弦距离)&#xff0c;找到离该点最近的簇核心&#xff0c;将它归属到对应的簇 3、所有点都归属到簇之后&#xff0c;M个点就分为了K个簇…

【时序】Reformer:局部敏感哈希(LSH)实现高效 Transformer 论文笔记

论文名称&#xff1a;Reformer: The Efficient Transformer 论文下载&#xff1a;https://arxiv.org/abs/2001.04451 论文年份&#xff1a;ICLR2020 论文被引&#xff1a;706&#xff08;2020/04/20&#xff09; 论文代码&#xff1a;https://github.com/google/trax/tree/mast…

损失函数MSE和MAE的区别以及如何选择

1、均方误差&#xff08;L2损失&#xff09; 均方误差(MSE)是最常用的回归损失函数&#xff0c;计算方法是求预测值与真实值之间距离的平方和&#xff0c;公式如下&#xff1a; M S E 1 m ∑ m i 1 ( y i − y ^ i ) 2 MSE\frac{1}{m} \sum_{m}^{i1}\left(y_{i}-\hat{y}_{i}…

连载|GBDT如何进行回归和分类

GBDT 在前几年的机器学习竞赛以及工作中&#xff0c;人们使用着各种传统算法进行调参取得性能的提升&#xff0c;突然有一天杀出了一种名为GBDT的算法&#xff0c;改变了当前的格局&#xff0c;该算法在不同的场景中总是能够产生很好的效果&#xff0c;本文就让我们来了解一下…

最小二乘法多项式曲线拟合数学原理及其C++实现

目录 0 前言1 最小二乘法概述2 最小二乘法求解多项式曲线系数向量的数学推导2.1 代数法2.2 矩阵法 3 代码实现4 总结参考 0 前言 自动驾驶开发中经常涉及到多项式曲线拟合&#xff0c;本文详细描述了使用最小二乘法进行多项式曲线拟合的数学原理&#xff0c;通过样本集构造范德…

GB和GBDT 算法流程及分析

1、优化模型的两种策略&#xff1a; 1&#xff09;基于残差的方法 残差其实就是真实值和预测值之间的差值&#xff0c;在学习的过程中&#xff0c;首先学习一颗回归树&#xff0c;然后将“真实值-预测值”得到残差&#xff0c;再把残差作为一个学习目标&#xff0c;学习下一棵回…

机器学习和深度学习性能指标

这里写目录标题 1、声明2、机器学习评估性能指标2.1、回归&#xff08;Regression&#xff09;算法指标2.1.1、平均绝对误差 MAE2.1.2、均方误差 MSE2.1.3、均方根误差 RMSE2.1.4、决定系数R^22.1.5、解决评估指标鲁棒性问题 2.2、分类&#xff08;Classification&#xff09;算…

多模态信息融合研究

1、主要研究方向 多模态学习可以划分为以下五个研究方向&#xff1a; 多模态表示学习 Multimodal Representation&#xff1a;主要研究如何将多模态的数据所蕴含的语义信息通过embedding的方式实现向量化&#xff0c;便于后续的计算&#xff1b; 模态转化 Translation&#…

【时序】DeepGLO:可以学习全局依赖和局部信息的多时间序列预测模型

论文名称&#xff1a;Think Globally, Act Locally: A Deep Neural Network Approach to High-Dimensional Time Series Forecasting 论文下载&#xff1a;https://arxiv.org/abs/1905.03806 论文年份&#xff1a;NeurIPS 2019 论文被引&#xff1a;134&#xff08;2022/04/21&…

独立性检验(卡方检验)

独立性检验(Test for Independence)是根据频数来判断两类因子是彼此独立还是彼此相关的一种假设检验。假如对某一个数据集有X&#xff08;值域为x1, x2&#xff09;跟Y&#xff08;值域为y1, y2&#xff09;变量&#xff0c;下面是他们的频数表&#xff1a; x1 x2 汇总 y1 …

列联表分析——独立性检验(卡方检验)

第一步&#xff1a;建立原假设和备择假设 H0&#xff1a;两变量相不立&#xff1b;H1&#xff1a;u两变量相互b独立 第二步&#xff1a;计算自由度和理论频数 第三步&#xff1a;计算卡方统计量 实际观察次数与理论次数之差的平方再除以理论次数得到的统计量近似服从卡方分布…

列联表分析-独立性检验

用SPSS分析甲乙丙三名推销员的对ABC三类产品的销售数据是否独立 原假设&#xff1a;他们之间相互独立 数据如下&#xff1a; 导入数据 将销量进行加权 点击分析-描述统计–交叉表&#xff1b; 结果 当表格是2X2的时候得到结果如下&#xff1a;

第15章卡方检验:拟合优度和独立性检验

第1章统计学入门 第2章频数分布略 第3章集中趋势的测量 第4章变异性 第5章分数的位置及标准化分布 第6章概率和正态分布 第7章概率和样本&#xff1a;样本均值的分布 第8章假设检验介绍 第9章t检验介绍 第10章两个独立样本的t检验 第11章两个相关样本的t检验…

独立样本t检验、方差齐性检验

什么是独立样本t检验&#xff1f; t检验是比较两组数据之间的差异&#xff0c;有无统计学意义&#xff1b;t检验的前提是&#xff0c;两组数据来自正态分布的群体&#xff0c;数据的方差齐&#xff0c;满足独立性。 独立样本t检验&#xff08;各实验处理组之间毫无相关存在&am…

卡方列联表的独立性检验

1.列联表是按两个或多个特征分类的频数数据&#xff0c;一般以表格形式组成。 2.判断两个或多个属性之间有无关联&#xff0c;即判别属性之间是否独立。 3.检验步骤 建立原假设 H0: 两属性相互独立 H1: 两属性之间不独立 计算自由度 计算卡方统计量 拒绝域 对照卡方分布…

SPSS学习(五)独立样本t检验

参考书籍&#xff1a;《SPSS其实很简单》 应用场景&#xff1a;当对两个独立分组中感兴趣的一个连续因变量的均值进行比较时使用。 目标&#xff1a;检验两个组别中关于某些感兴趣的因变量的均值是否存在显著差异 数据要求&#xff1a;具有两个不同组别的一个自变量&#xf…

统计之 - 独立性检验

独立性检验(Testfor Independence)是根据频数来判断两类因子是彼此独立还是彼此相关的一种假设检验。假如对某一个数据集有X&#xff08;值域为x1,x2&#xff09;跟Y&#xff08;值域为y1,y2&#xff09;变量&#xff0c;下面是他们的频数表&#xff1a; x1x2汇总y1ababy2cdcd汇…