梯度提升树(GBDT)

article/2025/8/18 20:49:32

提升树模型

提升树是以分类数或回归树为基本分类器的提升方法。提升方法实际采用加法模型(即基函数的线性组合)与前向分布算法,以决策树为基函数的提升方法为提升树(boosting tree)。基本分类器 x &lt; v x&lt;v x<v x &gt; v x&gt;v x>v,可以看作是一个根结点直接连接两个叶结点的简单决策树,也就是单层决策树,称为决策树桩(decision stump)。提升树模型可以表达为决策树的加法模型: F m ( x ) = ∑ t = 1 m f ( x ; θ t ) F_{m}(\mathbf{x})=\sum_{t=1}^{m}f(\mathbf x;\theta_{t}) Fm(x)=t=1mf(x;θt)
其中 f ( x ; θ j ) f(\mathbf x;\theta_{j}) f(x;θj)为第 j j j棵决策树, θ j \theta_{j} θj为参数。
提升树采用前向分布算法,确定初始提升树 f 0 ( x ) = 0 f_{0}(\mathbf{x})=0 f0(x)=0,第 m m m次提升的模型为: F m ( x ) = F m − 1 ( x ) + f ( x ; θ m ) F_{m}(\mathbf{x})=F_{m-1}(\mathbf{x})+f(\mathbf{x};\theta_{m}) Fm(x)=Fm1(x)+f(x;θm)
其中, F m − 1 ( x ) F_{m-1}(\mathbf x) Fm1(x)为前 m − 1 m-1 m1个决策树组成的集成分类器,通过最小化经验风险来确定第 m m m棵树的参数:
θ m = arg ⁡ min ⁡ θ ∑ i = 1 N L ( y i , F m − 1 ( x i ) + f ( x i ; θ ) ) \theta_{m}=\arg\min_{\theta}\sum_{i=1}^{N}L(y_{i},F_{m-1}(\mathbf{x}_{i})+f(\mathbf{x}_{i};\theta)) θm=argθmini=1NL(yi,Fm1(xi)+f(xi;θ))
不同问题的提升树算法,主要区别是使用的损失函数不同。对于二分类问题,提升树算法是AdaBoost算法的特殊情况。这里叙述回归问题的提升树。
已知训练集 { ( x i , y i ) } 1 N \{(\mathbf{x}_{i},y_{i})\}_{1}^{N} {(xi,yi)}1N,如果将输入空间划分为 J J J个不相交的区域 R 1 , R 2 , . . . , R J R_{1},R_{2},...,R_{J} R1,R2,...,RJ,并且每个区域确定输出的常量 c j c_{j} cj,树可表示为: f ( x ; θ ) = ∑ j = 1 J c j I ( x ∈ R j ) f(\mathbf{x};\theta)=\sum_{j=1}^{J}c_{j}I(\mathbf{x}\in R_{j}) f(x;θ)=j=1JcjI(xRj)
其中,参数 θ = { ( R j , c j ) } 1 N \theta=\{(R_{j},c_{j})\}_{1}^{N} θ={(Rj,cj)}1N表示树的区域划分和区域的常数值。 J J J是回归树的复杂度,即叶节点的个数。
当误差函数为平方损失误差为: L ( y , f ( x ) ) = ( y − f ( x ) ) 2 L(y,f(x))=(y-f(x))^{2} L(y,f(x))=(yf(x))2
L ( y , F m − 1 ( x ) + f ( x ; θ ) ) = L [ y − F m − 1 ( x ) − f ( x ; θ ) ] 2 = [ r − f ( x ; θ ) ] 2 L(y,F_{m-1}(\mathbf{x})+f(\mathbf{x};\theta))=L[y-F_{m-1}(\mathbf{x})-f(\mathbf{x};\theta)]^{2}=[r-f(\mathbf{x};\theta)]^{2} L(y,Fm1(x)+f(x;θ))=L[yFm1(x)f(x;θ)]2=[rf(x;θ)]2
r = y − F m − 1 ( x ) r=y-F_{m-1}(\mathbf{x}) r=yFm1(x)是当前模型拟合数据的残差(residual)。所以,回归问题的提升树算法只需要拟合当前模型的残差。
回归问题的提升树算法:
输入:训练数据集 { ( x i , y i ) } 1 N \{(\mathbf{x}_{i},y_{i})\}_{1}^{N} {(xi,yi)}1N
输出:提升树 F M ( x ) F_{M}(\mathbf{x}) FM(x)
初始化 f 0 ( x ) = 0 f_{0}(\mathbf{x})=0 f0(x)=0
m = 1 , 2 , . . . , M m=1,2,...,M m=1,2,...,M:
---------计算残差 r m i = y i − F m − 1 ( x i ) , i = 1 , 2 , . . . , N r_{mi}=y_{i}-F_{m-1}(\mathbf x_{i}),i=1,2,...,N rmi=yiFm1(xi),i=1,2,...,N
---------拟合残差学习一个回归树,得到回归树 f ( x ; θ m ) f(\mathbf{x;\theta_{m}}) f(x;θm)
---------更新 F m ( x ) = F m − 1 ( x ) + f ( x ; θ m ) F_{m}(\mathbf{x})=F_{m-1}(\mathbf{x})+f(\mathbf{x;\theta_{m}}) Fm(x)=Fm1(x)+f(x;θm)
最终得到的回归提升树: F M ( x ) = ∑ m = 1 M f ( x ; θ m ) F_{M}(\mathbf{x})=\sum_{m=1}^{M}f(\mathbf{x};\theta_{m}) FM(x)=m=1Mf(x;θm)
例子: 学习这个回归问题的提升树模型,考虑只用树桩做为基函数。

x12345678910
y5.565.705.916.406.807.058.908.709.009.05

第一步求回归树 f 1 ( x ) f_{1}(x) f1(x),通过以下优化问题:
m ( s ) = min ⁡ c 1 ∑ x i ∈ R 1 ( y i − c 1 ) 2 + min ⁡ c 2 ∑ x i ∈ R 2 ( y i − c 2 ) 2 m(s)=\min_{c_{1}}\sum_{x_{i}\in R_{1}}(y_{i}-c_{1})^{2}+\min_{c_{2}}\sum_{x_{i}\in R_{2}}(y_{i}-c_{2})^{2} m(s)=c1minxiR1(yic1)2+c2minxiR2(yic2)2
求解训练数据的切分点 s s s R 1 = { x ∣ x ≤ s } , R 2 = { x ∣ x &gt; s } R_{1}=\{x|x\leq s\}, R_{2}=\{x|x&gt;s\} R1={xxs},R2={xx>s}。容易求得在 R 1 , R 2 R_{1},R_{2} R1,R2内部使平方误差达到最小值的 c 1 , c 2 c_{1},c_{2} c1,c2为:
c 1 = 1 N 1 ∑ x i ∈ R 1 y i , c 2 = 1 N 2 ∑ x i ∈ R 2 y i c_{1}=\frac{1}{N_{1}}\sum_{x_{i}\in R_{1}}y_{i},c_{2}=\frac{1}{N_{2}}\sum_{x_{i}\in R_{2}}y_{i} c1=N11xiR1yi,c2=N21xiR2yi

根据所给的数据,考虑如下的切分点: 1.5 , 2.5 , 3.5 , 4.5 , 5.5 , 6.5 , 7.5 , 8.5 , 9.5 1.5,2.5,3.5,4.5,5.5,6.5,7.5,8.5,9.5 1.5,2.5,3.5,4.5,5.5,6.5,7.5,8.5,9.5
例如:当 s = 1.5 时 , R 1 = { 1 } , R 2 = { 2 , 3 , . . . , 10 } , c 1 = 5.56 , c 2 = 7.50 , m ( s ) = 15.72 s=1.5时,R_{1}=\{1\},R_{2}=\{2,3,...,10\},c_{1}=5.56,c_{2}=7.50,m(s)=15.72 s=1.5,R1={1}R2={2,3,...,10},c1=5.56,c2=7.50,m(s)=15.72
现将 s s s m ( s ) m(s) m(s)的计算结果列表如下:

s1.52.53.54.55.56.57.58.59.5
m(s)15.7212.078.365.783.911.938.0111.7315.74

由上表可知,当 s = 6.5 s=6.5 s=6.5时, m ( s ) m(s) m(s)达到最小值,此时 R 1 = { 1 , 2 , . . . , 6 } , R 2 = { 7 , 8 , 9 , 10 } , c 1 = 6.24 , c 2 = 8.91 R_{1}=\{1,2,...,6\},R_{2}=\{7,8,9,10\},c_{1}=6.24,c_{2}=8.91 R1={1,2,...,6},R2={7,8,9,10},c1=6.24,c2=8.91,所以回归树 f 1 ( x ) = { 6.24 , x &lt; 6.5 8.91 , x ≥ 6.5 f_{1}(x)=\left\{\begin{matrix} 6.24,x&lt;6.5\\ 8.91,x\geq 6.5 \end{matrix}\right. f1(x)={6.24,x<6.58.91,x6.5
f 1 ( x ) f_{1}(x) f1(x)拟合训练数据的残差如下表所示: r 2 i = y i − f 1 ( x i ) r_{2i}=y_{i}-f_{1}(x_{i}) r2i=yif1(xi)

x x x12345678910
r 2 i r_{2i} r2i-0.68-0.54-0.330.160.560.81-0.01-0.210.090.14

F 1 ( x ) F_{1}(x) F1(x)拟合训练数据的平方损失误差: L ( y , F 1 ( x ) ) = ∑ i = 1 10 ( y i − F 1 ( x i ) ) 2 = 1.93 L(y,F_{1}(x))=\sum_{i=1}^{10}(y_{i}-F_{1}(x_{i}))^{2}=1.93 L(y,F1(x))=i=110(yiF1(xi))2=1.93
采用与上面相同的方法拟合残差数据: f 2 ( x ) = { − 0.52 , x &lt; 3.5 0.22 , x ≥ 3.5 f_{2}(x)=\left\{\begin{matrix} -0.52, x&lt;3.5\\ 0.22, x \geq 3.5 \end{matrix}\right. f2(x)={0.52,x<3.50.22,x3.5

依次类推可得:
f 3 ( x ) = { 0.15 , x &lt; 6.5 − 0.22 , x ≥ 6.5 , f 4 ( x ) = { − 0.16 , x &lt; 4.5 0.11 , x ≥ 4.5 f_{3}(x)=\left\{\begin{matrix} 0.15, x&lt;6.5\\ -0.22, x \geq 6.5 \end{matrix}\right.,f_{4}(x)=\left\{\begin{matrix} -0.16, x&lt;4.5\\ 0.11, x \geq 4.5 \end{matrix}\right. f3(x)={0.15,x<6.50.22,x6.5,f4(x)={0.16,x<4.50.11,x4.5
f 5 ( x ) = { 0.07 , x &lt; 6.5 − 0.11 , x ≥ 6.5 , f 6 ( x ) = { − 0.15 , x &lt; 2.5 0.04 , x ≥ 2.5 f_{5}(x)=\left\{\begin{matrix} 0.07, x&lt;6.5\\ -0.11, x \geq 6.5 \end{matrix}\right.,f_{6}(x)=\left\{\begin{matrix} -0.15, x&lt;2.5\\ 0.04, x \geq 2.5 \end{matrix}\right. f5(x)={0.07,x<6.50.11,x6.5,f6(x)={0.15,x<2.50.04,x2.5
F 6 ( x ) = F 5 ( x ) + f 6 ( x ) = f 1 ( x ) + f 2 ( x ) + . . . + f 6 ( x ) = { 5.63 , x &lt; 2.5 5.82 , 2.5 ≤ x &lt; 3.5 6.56 , 3.5 ≤ x &lt; 4.5 6.83 , 4.5 ≤ x &lt; 6.5 8.95 , x ≥ 6.5 F_{6}(x)=F_{5}(x)+f_{6}(x)=f_{1}(x)+f_{2}(x)+...+f_{6}(x)=\left\{\begin{matrix} 5.63,x&lt;2.5\\ 5.82,2.5\leq x &lt;3.5\\ 6.56,3.5\leq x &lt;4.5\\ 6.83,4.5\leq x &lt;6.5\\ 8.95,x \geq 6.5 \end{matrix}\right. F6(x)=F5(x)+f6(x)=f1(x)+f2(x)+...+f6(x)=5.63,x<2.55.82,2.5x<3.56.56,3.5x<4.56.83,4.5x<6.58.95,x6.5
F 6 ( x ) F_{6}(x) F6(x)拟合训练数据的平方损失函数误差是: L ( y , F 6 ( x ) ) = ∑ i = 1 10 L ( y i , F 6 ( x i ) ) = 0.17 L(y,F_{6}(x))=\sum_{i=1}^{10}L(y_{i},F_{6}(x_{i}))=0.17 L(y,F6(x))=i=110L(yi,F6(xi))=0.17
假设此时已满足误差要求,那么 F 6 ( x ) F_{6}(x) F6(x)就是所求的提升树。

梯度提升

提升树利用加法模型和前向分步算法实现学习的优化过程。当损失函数为平方损失函数和指数损失函数时,每一步的优化很容易实现,但对一般的损失函数而言,优化困难。Freidman提出了梯度提升方法(gradient boosting),利用损失函数的负梯度在当前模型的值:
− [ ∂ L ( y i , F ( x i ) ) ∂ F ( x i ) ] F ( x ) = F m − 1 ( x ) -[\frac{\partial{L(y_{i},F(\mathbf{x}_{i}))}}{\partial{F({\mathbf{x}_{i}})}}]_{F({\mathbf{x}})=F_{m-1}(\mathbf x)} [F(xi)L(yi,F(xi))]F(x)=Fm1(x)
作为回归问题提升树中残差的近似值来优化。
梯度提升的一般框架
对于第 m m m步, ( β m , a m ) = arg ⁡ min ⁡ β , a ∑ i = 1 N L ( y i , F m − 1 ( x i ) + β h ( x i ; a ) ) (\beta_{m},a_{m})=\arg \min_{\beta,a}\sum_{i=1}^{N}L(y_{i},F_{m-1}(\mathbf{x}_{i})+\beta h(\mathbf{x}_{i};a)) (βm,am)=argβ,amini=1NL(yi,Fm1(xi)+βh(xi;a))
上述的误差可能很难去直接优化,不妨先通用的求解梯度:
− g m ( x i ) = − [ ∂ L ( y i , F ( x i ) ) ∂ F ( x i ) ] F ( x ) = F m − 1 ( x ) -g_{m}(\mathbf{x}_{i})=-[\frac{\partial{L(y_{i},F(\mathbf{x}_{i}))}}{\partial{F({\mathbf{x}_{i}})}}]_{F({\mathbf{x}})=F_{m-1}(\mathbf x)} gm(xi)=[F(xi)L(yi,F(xi))]F(x)=Fm1(x)
我们先把 F m − 1 ( x i ) F_{m-1}({\mathbf{x}_{i}}) Fm1(xi)看做一个整体,也就是一个参数。求解梯度后,我们通常会这样更新: F m ( x i ) = F m − 1 ( x i ) − g m ( x i ) F_{m}({\mathbf{x}_{i}})=F_{m-1}({\mathbf{x}_{i}})-g_{m}(\mathbf{x}_{i}) Fm(xi)=Fm1(xi)gm(xi)
此时, F m ( x i ) F_{m}({\mathbf{x}_{i}}) Fm(xi)就要比 F m − 1 ( x i ) F_{m-1}({\mathbf{x}_{i}}) Fm1(xi)更优。但是我们的目的是要得到如下而不是更新 F ( x i ) F({\mathbf{x}_{i}}) F(xi) F m ( x i ) = F m − 1 ( x i ) + β h ( x i ; a ) F_{m}({\mathbf{x}_{i}})=F_{m-1}({\mathbf{x}_{i}})+\beta h(\mathbf{x}_{i};a) Fm(xi)=Fm1(xi)+βh(xi;a)
所以新组合得到的分类器就要去拟合负梯度:
a m = arg ⁡ min ⁡ a , β ∑ i = 1 N [ − g m ( x i ) − β h ( x i ; a ) ] 2 a_{m}=\arg \min_{a,\beta}\sum_{i=1}^{N}[-g_{m}(\mathbf{x}_{i})-\beta h(\mathbf{x}_{i};a)]^{2} am=arga,βmini=1N[gm(xi)βh(xi;a)]2
β m \beta_{m} βm无需求解的原因是下面求解的 ρ m \rho_{m} ρm可能会比其更优:
ρ m = arg ⁡ min ⁡ ρ ∑ i = 1 N L ( y i , F m − 1 ( x i ) + ρ h ( x i ; a m ) ) \rho_{m}=\arg\min_{\rho}\sum_{i=1}^{N}L(y_{i},F_{m-1}(\mathbf{x}_{i})+\rho h(\mathbf{x}_{i};a_{m})) ρm=argρmini=1NL(yi,Fm1(xi)+ρh(xi;am))
更新组合分类器:
F m ( x i ) = F m − 1 ( x i ) + ρ m h ( x i ; a m ) ) F_{m}(\mathbf{x}_{i})=F_{m-1}(\mathbf{x}_{i})+\rho_{m} h(\mathbf{x}_{i};a_{m})) Fm(xi)=Fm1(xi)+ρmh(xi;am))
框架伪代码:
在这里插入图片描述


http://chatgpt.dhexx.cn/article/O7Aok6fN.shtml

相关文章

机器学习: 提升

文章目录 Github提升的概念理解与随机森林的比较提升算法 GBDT参数设置和正则化 XGBoostAdaboost算法总结 Github 系列文章 pdf 版本已经上传至&#xff1a; https://github.com/anlongstory/awsome-ML-DL-leaning/tree/master/xiaoxiang-notes 欢迎 Star 和下载 ? 提升的概…

多模态深度学习综述:网络结构设计和模态融合方法汇总

点击上方“机器学习与生成对抗网络”&#xff0c;关注"星标" 获取有趣、好玩的前沿干货&#xff01; 作者丨小奚每天都要学习知乎 编辑丨极市平台 来源丨https://zhuanlan.zhihu.com/p/152234745 一、简介 从2010年开始&#xff0c;深度学习方法为语音识别&#xff0…

回归分析(数据拟合---MATLAB和1stopt软件)

回归分析&#xff08;regression analysis)指的是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。 回归分析按照涉及的变量的多少&#xff0c;分为一元回归和多元回归分析&#xff1b; 按照因变量的多少&#xff0c;可分为简单回归分析和多重回归分析&#xf…

利用Excel的LINEST计算线性拟合的斜率和截距的不确定性

目录 线性拟合的斜率和截距的不确定性Excel数组函数LINESTLINEST结果的含义LINEST输出的10个统计参数含义如下&#xff1a; 模型预测 y ^ \widehat{y} y ​ m x b mxb mxbReferences 线性拟合的斜率和截距的不确定性 利用熟悉的Excel绘图功能&#xff0c;可以根据距离-高程散…

机器学习算法——Kmeans

1.k-mean算法的原理 1、选取K个点做为初始聚集的簇心 2、分别计算每个样本点到K个簇核心的距离&#xff08;这里的距离一般取欧氏距离或余弦距离)&#xff0c;找到离该点最近的簇核心&#xff0c;将它归属到对应的簇 3、所有点都归属到簇之后&#xff0c;M个点就分为了K个簇…

【时序】Reformer:局部敏感哈希(LSH)实现高效 Transformer 论文笔记

论文名称&#xff1a;Reformer: The Efficient Transformer 论文下载&#xff1a;https://arxiv.org/abs/2001.04451 论文年份&#xff1a;ICLR2020 论文被引&#xff1a;706&#xff08;2020/04/20&#xff09; 论文代码&#xff1a;https://github.com/google/trax/tree/mast…

损失函数MSE和MAE的区别以及如何选择

1、均方误差&#xff08;L2损失&#xff09; 均方误差(MSE)是最常用的回归损失函数&#xff0c;计算方法是求预测值与真实值之间距离的平方和&#xff0c;公式如下&#xff1a; M S E 1 m ∑ m i 1 ( y i − y ^ i ) 2 MSE\frac{1}{m} \sum_{m}^{i1}\left(y_{i}-\hat{y}_{i}…

连载|GBDT如何进行回归和分类

GBDT 在前几年的机器学习竞赛以及工作中&#xff0c;人们使用着各种传统算法进行调参取得性能的提升&#xff0c;突然有一天杀出了一种名为GBDT的算法&#xff0c;改变了当前的格局&#xff0c;该算法在不同的场景中总是能够产生很好的效果&#xff0c;本文就让我们来了解一下…

最小二乘法多项式曲线拟合数学原理及其C++实现

目录 0 前言1 最小二乘法概述2 最小二乘法求解多项式曲线系数向量的数学推导2.1 代数法2.2 矩阵法 3 代码实现4 总结参考 0 前言 自动驾驶开发中经常涉及到多项式曲线拟合&#xff0c;本文详细描述了使用最小二乘法进行多项式曲线拟合的数学原理&#xff0c;通过样本集构造范德…

GB和GBDT 算法流程及分析

1、优化模型的两种策略&#xff1a; 1&#xff09;基于残差的方法 残差其实就是真实值和预测值之间的差值&#xff0c;在学习的过程中&#xff0c;首先学习一颗回归树&#xff0c;然后将“真实值-预测值”得到残差&#xff0c;再把残差作为一个学习目标&#xff0c;学习下一棵回…

机器学习和深度学习性能指标

这里写目录标题 1、声明2、机器学习评估性能指标2.1、回归&#xff08;Regression&#xff09;算法指标2.1.1、平均绝对误差 MAE2.1.2、均方误差 MSE2.1.3、均方根误差 RMSE2.1.4、决定系数R^22.1.5、解决评估指标鲁棒性问题 2.2、分类&#xff08;Classification&#xff09;算…

多模态信息融合研究

1、主要研究方向 多模态学习可以划分为以下五个研究方向&#xff1a; 多模态表示学习 Multimodal Representation&#xff1a;主要研究如何将多模态的数据所蕴含的语义信息通过embedding的方式实现向量化&#xff0c;便于后续的计算&#xff1b; 模态转化 Translation&#…

【时序】DeepGLO:可以学习全局依赖和局部信息的多时间序列预测模型

论文名称&#xff1a;Think Globally, Act Locally: A Deep Neural Network Approach to High-Dimensional Time Series Forecasting 论文下载&#xff1a;https://arxiv.org/abs/1905.03806 论文年份&#xff1a;NeurIPS 2019 论文被引&#xff1a;134&#xff08;2022/04/21&…

独立性检验(卡方检验)

独立性检验(Test for Independence)是根据频数来判断两类因子是彼此独立还是彼此相关的一种假设检验。假如对某一个数据集有X&#xff08;值域为x1, x2&#xff09;跟Y&#xff08;值域为y1, y2&#xff09;变量&#xff0c;下面是他们的频数表&#xff1a; x1 x2 汇总 y1 …

列联表分析——独立性检验(卡方检验)

第一步&#xff1a;建立原假设和备择假设 H0&#xff1a;两变量相不立&#xff1b;H1&#xff1a;u两变量相互b独立 第二步&#xff1a;计算自由度和理论频数 第三步&#xff1a;计算卡方统计量 实际观察次数与理论次数之差的平方再除以理论次数得到的统计量近似服从卡方分布…

列联表分析-独立性检验

用SPSS分析甲乙丙三名推销员的对ABC三类产品的销售数据是否独立 原假设&#xff1a;他们之间相互独立 数据如下&#xff1a; 导入数据 将销量进行加权 点击分析-描述统计–交叉表&#xff1b; 结果 当表格是2X2的时候得到结果如下&#xff1a;

第15章卡方检验:拟合优度和独立性检验

第1章统计学入门 第2章频数分布略 第3章集中趋势的测量 第4章变异性 第5章分数的位置及标准化分布 第6章概率和正态分布 第7章概率和样本&#xff1a;样本均值的分布 第8章假设检验介绍 第9章t检验介绍 第10章两个独立样本的t检验 第11章两个相关样本的t检验…

独立样本t检验、方差齐性检验

什么是独立样本t检验&#xff1f; t检验是比较两组数据之间的差异&#xff0c;有无统计学意义&#xff1b;t检验的前提是&#xff0c;两组数据来自正态分布的群体&#xff0c;数据的方差齐&#xff0c;满足独立性。 独立样本t检验&#xff08;各实验处理组之间毫无相关存在&am…

卡方列联表的独立性检验

1.列联表是按两个或多个特征分类的频数数据&#xff0c;一般以表格形式组成。 2.判断两个或多个属性之间有无关联&#xff0c;即判别属性之间是否独立。 3.检验步骤 建立原假设 H0: 两属性相互独立 H1: 两属性之间不独立 计算自由度 计算卡方统计量 拒绝域 对照卡方分布…

SPSS学习(五)独立样本t检验

参考书籍&#xff1a;《SPSS其实很简单》 应用场景&#xff1a;当对两个独立分组中感兴趣的一个连续因变量的均值进行比较时使用。 目标&#xff1a;检验两个组别中关于某些感兴趣的因变量的均值是否存在显著差异 数据要求&#xff1a;具有两个不同组别的一个自变量&#xf…