推荐系统与深度学习(十五)——LS-PLM(MLR)模型原理

article/2025/11/9 19:49:35

公众号后台回复“图书“,了解更多号主新书内容

作者:livan

来源:数据Python与算法

模型原理

CTR预估的发展过程中,LR模型是比较常用的方法,因为其计算量小容易并行,工业上应用非常广泛,同时也引发了各位大佬基于LR模型的优化改进,这一改进通常有两个方向,一个是走融合路,即GBDT+LR样式,将LR模型与其他的模型算法结合,达到优势互补的效果;另一个就是因子分解,即FM系列探索,它们的主要思想就是构造交叉特征或者是二阶的特征来一起进行训练。

   除此之外也会有一些大佬给出一些新的思路,比如本文中介绍的LS-PLM模型(又叫MLR模型),这一模型是用传统的机器学习方法模仿了深度学习的结构,采用divide-and-conquer策略,将特征空间分割成若干个子区域,在每个子区域采用线性模型,最后用weighted-linear-predictions组合结果。

   首先我们需要先看一个图片:

    

   我们在使用LR模型的时候,往往最容易处理图2样式,因为数据集线型可分,刚好是LR的特长,但是,对于图3样式就未必了,图3是非线性数据集,需要用非线性模型来处理,因此有了我们今天讲述的LS-PLM模型。

   LS-PLM模型解决这一模型的方法即为将图3中的数据分成多个子区域,然后针对子区域单独建模,再用函数将模型融合成一个,如图:

那么,如何将上面的图片分切成多块呢?切分成几块比较合适的?每块的数据该用什么模型训练呢?

问题就变的很清晰了:有效切片和分组训练。

好在阿里的大佬给出了答案:

我们仔细观察这一模型,发现公式中有两个函数:

第一个即为分割函数σ(x),这一函数将原数据集分成m份,m为超参数;

第二个即为预测函数η(x),这一函数各自模拟每一小块数据集,形成上图中的Func_n函数。

   将softmax函数作为分割函数σ(x),将sigmoid函数作为拟合函数η(x)的时候,该模型为:

用概率的形式整理出对应的函数公式为:

而对应的损失函数为:

   理论上来说,增大m可以带来无限制的非线性拟合能力,但是同样会增加计算、存储的开销,同时会带来过拟合的风险。

   具体如何选取m要结合实际情况取舍。

   同时MLR还引入了结构化先验、分组稀疏、线性偏置、模型级联、增量训练、Common Feature Trick来提升模型性能。

模型性能提升

我们看一下这些细节:

1)结构化先验:使用用户特征来划分特征空间,使用广告特征来进行基分类器的训练,减小了模型的探索空间,收敛更容易,这一模型本质上更符合我们对数据的认知。

2)线型偏置:针对CTR预估问题中存在的两种偏置:

Position Bias:排名第1位和第5位的样本,点击率天然存在差异。商品展示的页面、位置影响点击率

Sample Bias:PC和Mobile上的样本,点击率天然存在差异。

   LS-PLM中提出了对应的解决方案:

在原来商品特征x的基础上,增加偏移向量 (场景、页数、位置等),如上图。

3)模型级联:在模型训练过程中MLR只是对某一个场景的拟合,对于复杂场景时,也需要用到级联的效果,如图:

4)增量训练: MLR利用结构先验(用户特征进行聚类,广告特征进行分类)进行预训练,然后再增量进行全空间参数寻优训练,会使得收敛步数更少,收敛更稳定,类似于迭代了一次的EM算法,如下公式:

5)并行化:模型实现基于分布式,包括两个维度的并行化,模型并行化,数据并行化。每一个计算节点中都包含两种角色:Server Node, Worker Node,这样做的好处有两点:

其一:最大化利用CPU计算资源。之前大多数Server Node单独放到一台服务器上,造成CPU资源的极大浪费。

其二:最大化利用Memory资源。

6)Common Feature Trick:

一个用户在一次pageview中会看到多个广告,每个广告都组成一条样本。所以这些样本之间很多特征都是重复的。这些特征包括:用户特征(年龄、性别等)、用户的历史访问信息(之前购买的物品、喜欢的店铺等)。那么我们对于向量内积的计算分成两部分:commonnon-common parts:

对应的公式为:

利用Common Feature Trick可以从三个方面来优化并行化:

其一:对于有Common Feature的样本作为一组一起训练,并保证在存储在一个worker上

其二:对于Common Feature仅仅保存一次,以便来节省内存

其三:对于Common Feature的loss和梯度更新只需要一次即可。

模型优劣

这一模型的优势为:

1)端到端的非线性学习:从模型端自动挖掘数据中蕴藏的非线性模式,省去了大量的人工特征设计,这使得MLR算法可以端到端地完成训练,在不同场景中的迁移和应用非常轻松,通过分区来达到拟合非线性函数的效果。

2)可伸缩性(scalability):与逻辑回归模型相似,都可以很好的处理复杂的样本与高维的特征,并且做到了分布式并行;

3)稀疏性: 对于在线学习系统,模型的稀疏性较为重要,所以采用了L1和L2正则化,模型的学习和在线预测性能更好。当然,目标函数非凸非光滑为算法优带来了新的挑战。

但其自身的缺点也非常明显:

1)初值问题、非凸问题的局部极值等方面虽然MLR比LR好,但不知道和全局最优相比还有多远;

2)在初值的Pre-train方面需要改进和优化模型函数;

3)目前规模化能力方面也需要能够吞吐更多特征和数据,比如采用更快的收敛算法等等;

4)整体的MLR算法的抽象能力也需进一步得到强化。

◆ ◆ ◆  ◆ ◆
麟哥新书已经在京东上架了,我写了本书:《拿下Offer-数据分析师求职面试指南》,目前京东正在举行活动,大家可以用原价5折的预购价格购买,还是非常划算的:点击下方小程序即可进入购买页面:
数据森麟公众号的交流群已经建立,许多小伙伴已经加入其中,感谢大家的支持。大家可以在群里交流关于数据分析&数据挖掘的相关内容,还没有加入的小伙伴可以扫描下方管理员二维码,进群前一定要关注公众号奥,关注后让管理员帮忙拉进群,期待大家的加入。管理员二维码:猜你喜欢● 麟哥拼了!!!亲自出镜推荐自己新书《数据分析师求职面试指南》● 厉害了!麟哥新书登顶京东销量排行榜!● 笑死人不偿命的知乎沙雕问题排行榜
● 用Python扒出B站那些“惊为天人”的阿婆主!● 你相信逛B站也能学编程吗

http://chatgpt.dhexx.cn/article/e88a3s8L.shtml

相关文章

基于R语言中的mlr以及Python中的sklearn的逻辑回归算法实战

逻辑回归算法在Python和R语言中的实现 基于R语言中的mlr、tidyverse进行逻辑回归算法实战逻辑回归是什么? 建立一个逻辑回归模型特征工程与特征选择数据可视化 对缺失值进行处理输出混淆矩阵 准确率、查准率、召回率、f1值、fpr、fnr上述逻辑回归模型总结&#xff1…

多元线性回归MLR多变量预测模型,多变量输入结构,可以拟合出方程,评价指标包括:R2、MAE、MSE、RMSE等,代码质量极高,方便学习和替换数据。

%% 清空环境变量 warning off % 关闭报警信息 close all % 关闭开启的图窗 clear % 清空变量 clc % 清空命令行 %% %% 导入数据 resxlsread(数据集.xlsx); %% 数据分析 num_size 0.7; …

深度学习与推荐系统(十五)——LS-PLM(MLR)模型

CTR预估的发展过程中,LR模型是比较常用的方法,因为其计算量小容易并行,工业上应用非常广泛,同时也引发了各位大佬基于LR模型的优化改进,这一改进通常有两个方向,一个是走融合路,即GBDTLR样式&am…

MLIR (Multi-Level Intermediate Representation)

MLIR 意思为:多级中间表示,是一种新的IR表示。MLIR 是 LLVM 项目的子项目。 MLIR 是一种新型的编译器框架,其设计中参考了已有的编译器优点,规避了一些缺陷。包括了中间表示的定义、转换以及优化等功能,极大地方便了新…

回归算法总结——SLR、MLR、PCR、PLS

PCR参考链接:【建模应用】PCA主成分分析原理详解 - pigcv - 博客园 PLS参考链接:【建模应用】PLS偏最小二乘回归原理与应用 - pigcv - 博客园

PCA-APCA-MLR

全称 principal component analysis-absolute principal component score-multiple linear regression 原理 绝对因子分析/多元线性回归受体模型(APCS—MLR)的基本原理是将因子分析的主因子得分转化为绝对主因子得分(APCS),各指标含量再分别对所有的APCS进行多元线性回…

回归预测 | MATLAB实现MLR多元线性回归预测(多指标评价)

回归预测 | MATLAB实现MLR多元线性回归预测(多指标评价) 目录 回归预测 | MATLAB实现MLR多元线性回归预测(多指标评价)预测效果基本介绍模型描述程序设计参考资料预测效果 基本介绍 回归预测 | MATLAB实现MLR多元线性回归预测(多指标评价) 模型描述 多元线性回归(Multip…

【ML】机器学习模型之PMML--概述

机器学习模型的应用一般会经历两个主要过程: 1、离线开发2、线上部署 离线部分负责模型训练和导出模型,线上部分负责导入模型并且做预测。 以上图片来自:https://zhuanlan.zhihu.com/p/30378213 一、PMML简要介绍 PMML(Predic…

基于 mlr 包的逻辑回归算法介绍与实践

逻辑回归是基于概率分类的有监督学习算法,它依赖于直线方程,产生的模型非常容易解释和交流。在其最简单的形式中,逻辑回归被用来预测二分类问题,但算法的变体也可以处理多个类。 逻辑回归算法通常应用于二分类问题,称为二项逻辑回归 (binomial logistic regression),当处…

利用R语言中的tidyverse和mlr建立分类算法-KNN

基于相似性的k近邻分类 KNN(K-Nearest Neighbors)算法是一种基本的分类和回归算法,它是一种非参数算法,可以用于分类和回归问题。它的基本思想是利用已有的数据集对新的数据进行分类或回归。 在分类问题中,KNN算法通…

MLR原理及deepctr组网实现MLR

文章目录 MLRdeepctr实现MLR MLR https://zhuanlan.zhihu.com/p/100532677 https://blog.csdn.net/fyneru_xiaohui/article/details/106390266 deepctr实现MLR import os, warnings, time, sys import pickle import matplotlib.pyplot as plt import pandas as pd, numpy a…

R手册(Machine Learning)--mlr (Part 2)

文章目录 Configuration (配置)Parallelization (并行)Imputation (插补)Feature Extraction (特征提取)1. Feature filtering(特征筛选)2. Feature selection(特征选择) Benchmarking (基准点)Visualization (可视化)Wrappers (封装器)Nested Resampling (嵌套重采样)Ensemble…

R手册(Machine Learning)--mlr(Part 1)

文章目录 IntroductionPreprocessing data (预处理)Task and Learner1. Create a task2. Making a learner Training & Testing (训练和测试)1. Setting hyperparameters (设置超参数)2. Train a model and predict (训练模型和预测)3. Measuring performance (模型评估质量…

基于EEMD+GRU+MLR的时间序列预测

0、前言 文章《基于 EEMD-GRU-MLR 的短期电力负荷预测》中,通过构建集合经验模态分解(ensemble empirical modedecomposition,EEMD)以及门控循环单元神经网络(gated recurrent unit neural network,GRU)和多元线性回归(multiplelinear regres…

机器学习的R实现(mlr包)

目录 Machine Learning with MLR Package 1. 获取数据 2. 探索数据 3. 缺失值填补 4. 特征工程 5. 机器学习 1. 二次判别分析,Quadratic Discriminant Analysis (QDA). 2.逻辑回归 Logistic Regression 3. 决策树-Decision Tree 4. 随机森林,Ra…

机器学习之MLR

线性回归(Linear regression)是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为一元回归,大于一个自变量情…

MLR(mixed logistic regression)模型

基本形式 MLR模型是阿里巴巴12年提出(17年发表)点击率预估模型,它利用分段方式对数据进行拟合,相比LR模型,能够学习到更高阶的特征组合。其基本表达式如下 p ( y 1 ∣ x ) g ( ∑ j 1 m σ ( u j T x ) η ( w j …

MLR(mixed logistic regression)算法原理及实现

MLR(mixed logistic regression)算法 参考https://zhuanlan.zhihu.com/p/77798409?utm_sourcewechat_session 盖坤ppt : https://wenku.baidu.com/view/b0e8976f2b160b4e767fcfdc.html 原文:《Learning Piece-wise Linear Models from Large…

多元线性回归MLR

多元线性回归(MLR) 文章目录 多元线性回归(MLR)由极大似然估计(MLE, Maximum likelihood estimation)推导MSE简单导数知识推导解析解( θ ( X T X ) − 1 X T Y \theta (X^TX)^{-1}X^TY θ(XTX)−1XTY)来个例子试一试吧 不用解析解, 用梯度下降求解 θ \theta θ梯度下降法另…