深度——强化学习、深度森林

article/2025/9/25 18:37:04

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
Sutton’sTD(0)算法:考虑当前回报和下一状态的估计值,它的更新公式 :在这里插入图片描述
• Q-learing算法:它和Sutton’sTD(0)算法类似,只是将动作集A也考虑进来。 定义动作价值函数Q(s,a),在这里插入图片描述

深度强化学习 DRL

深度学习感知能力强;强化学习决策能力强;结合更好!
根据环境做出的奖励来决策
在这里插入图片描述

典型应用:DQN
把Q-learning中的价值函数用深度神经网络来近似。
包括主网络和目标网络:
主网络:通过最大Q值选择action,而被选定的Q值则由目标网络生成
目标网络:辅助计算目标Q值,目的是避免网络陷入 目标Q值 与预测Q值的反馈循环。
在这里插入图片描述
经验回放experience replay
将系统探索环境得到的数据储存起来,然后随机采样样本****更新深度神经网络的参数。

对于时间序列信息,深度Q网络的处理方法是加入经验回放机制。 但是经验回放的记忆能力有限,每个决策点需要获取整个输入画 面进行感知记忆。

深度森林

决策树(Decision Tree),是一种基于树结构进行决策的机器学习 方法,这恰是人类面临决策时一种很自然的处理机制。

决策树生成过程:

1.寻找适合分割的特征。
2.根据纯度判断方法,寻找优的分割点,基于这一特征把数据分割成 纯度更高的两部分数据。
3.•判断是否达到要求,若未达到,重复步骤一继续分割,直到达到要求 停止为止。
4.剪枝,防止过拟合。

随机森林

随机建立一颗颗决策树,组成森林,决策树之间没有关联。当有一个新的样本输入,就让 每棵树独立 做出判断,按照 多数原则 决定该样本的分类结果集成学习的思想。
•随机森林的生成方法
1.从样本集中通过重采样的方式产生n个样本
2.假设样本特征数目为a,对n个样本选择a中的k个特征,用建立决策树的方 式获得最佳分割点
3.重复m次,产生m棵决策树
4.按多数投票机制来进行预测

•优势 •
与DNN相比需要的参数更少。
训练速度快。
不仅适合大规模数据也适合小规模数据。
基于树模型解释性比较好

基于森林的自编码器

•自编码器(Auto-Encoder)是神经网络的一种,是一种重要的表 示学习模型,是深度学习的关键要素之一。自编码器的基本结构 是由一个编码器(encoder)和一个解码器(decoder)组成,其中 encoder将输入映射到隐空间,encoder将隐空间的表示重构为 原表示

•eForest(Encoder-Forest)基于森林的自编码器,能够利用决策 树的决策路径所定义的等效类来进行**后向重建。**利用决策树集成 算法进行向前编码和向后解码的操作。

•前向编码 •在一个有N个已训练决策树的森林中,前向编码过程接受输入 数据并将其发送到集成方法中每棵树的根结点。 •一旦数据遍历(traverse)到所有树的叶结点,该过程将返回 T 维向量,T中的每个元素t 是树t 中的叶结点的整数索引。

在这里插入图片描述

•后向解码
•利用决策树进行决策时需要将决策的路径记录下来,而每个决 策路径对应了一个规则(rule)。
•在进行解码重构的过程中,利用森林中N个规则,运用大相 容规则Maximum Compatible Rule(MCR),获取N维编码所 对应的更精确的规则,以此规则进行重构。

在这里插入图片描述

•优势

•训练速度较快。如在MNIST和CIFAR10 上的训练速度比基于 神经网络的模型快数倍以上。 •重构误差低。基于规则,而不是计算。 •容损性。编码规则具有强相关性,因此在部分损坏的情况下也 能很好地工作。 •可复用性

•不足

•与神经网络相比编码表达力不足。
•编码、解码速度相对神经网络较慢

深度森林适用条件

•具备逐层处理的任务
•内部特征无变化。
•参数不可微。
•一定的模型复杂度。


http://chatgpt.dhexx.cn/article/kTZ5LJgM.shtml

相关文章

周志华团队和蚂蚁金服合作:用分布式深度森林算法检测套现欺诈

翻译 | 林椿眄 出品 | AI科技大本营(公众号ID:rgznai100) 【AI科技大本营导读】 互联网公司每天都面临着处理大规模机器学习应用程序的问题,因此我们需要一个可以处理这种超大规模的日常任务的分布式系统。最近,以…

在Python 3中使用深度森林(Deep Forest)进行分类

深度森林(Deep Forest)是周志华教授和冯霁博士在2017年2月28日发表的论文《Deep Forest: Towards An Alternative to Deep Neural Networks》中提出来的一种新的可以与深度神经网络相媲美的基于树的模型,其结构如图所示。 gcForest.png 文中提出的多粒度级联森林(Mu…

9大数据集6大度量指标完胜,周志华等提出深度森林处理多标签学习

2019-11-25 11:01:57 选自arXiv 机器之心编译参与:路雪、一鸣 近日,南大周志华等人首次提出使用深度森林方法解决多标签学习任务。该方法在 9 个基准数据集、6 个多标签度量指标上实现了最优性能。 在多标签学习中,每个实例都有多个标签&am…

深度森林DF21、deep forest、gcForest

文章目录 DF21的优势DF21的可以用来干什么对标算法[^1] DF21的优势 DF21是周志华团队于2021年2月1日推出的深度森林开源库,其优势在于超参少、训练效率高1。 DF21的可以用来干什么 DF21可以用来进行分类和回归2。 对标算法2 搜狐自媒体网文:周志华团…

如何评价周志华深度森林模型

这篇文章背后的思路实际上是这样的: DNN(或者说 MLP)其实就是堆起来的广义线性模型(比如 logistic,但也有其他激活函数)。它能够自动发现特征与标签之间的非线性关系,当决策边界非线性&#xf…

gcForest分布式深度森林及其在套现欺诈自动检测中的应用

分布式深度森林及其在套现欺诈自动检测中的应用 摘要 互联网企业每天面对处理大规模机器学习应用的请求,需要一个能够处理超大数据任务的分布式系统.深度森林是最近提出的一个利用树作为组件深度学习框架,在各种领域取得不错的结果.然而并没有在超大规模数据任务上测试.在这项…

【论文解读】关于深度森林的一点理解

2017年年初,南京大学周志华老师上传了一篇名为:Deep Forest:Towards An Alternative to Deep Neural Networks的论文,一石激起千层浪,各大媒体纷纷讨论着,这似乎意味着机器学习的天色要变,实则不…

随机森林算法的扩展-深度森林(deep forest)

深度学习最大的贡献,个人认为就是表征学习(representation learning),通过端到端的训练,发现更好的features,而后面用于分类(或其他任务)的输出function,往往也只是普通的…

多标签学习与深度森林学习笔记

周志华老师团队Multi-Label Learning with Deep Forest (MLDF)报道很多,各大机器学习平台也都就这篇文章的亮点给出了分析。近日在准备组会报告时较为详细地拜读了一下,也由此简单了解了一下多标签学习的相关内容。 正如论文作者所述,MLDF的…

论文阅读:Deep forest/深度森林/gcForest

最近组会汇报了这篇文章,简单把思想梳理下来了,对了搜索深度森林的时候可能会看到Deep Forest: Towards an Alternative to Deep Neural Networks,这两篇文章的内容基本上是一致的,只在叙述方面有一些很小的不同。 下面是我做的p…

【冰糖Python】深度森林 DeepForest

此文为记录DeepForest的简单使用 原文《Deep Forest: Towards an Alternative to Deep Neural Networks》 “A key advantage of deep forest is its adaptive model complexity depending on the dataset. The default setting on hyper-parameters enables it to perform r…

使用深度森林(Deep Forest)进行分类-Python

一、什么是深度森林? 传统DNN的不足: 1、需要大量的数据集来训练; 2、DNN的模型太复杂; 3、DNN有着太多的超参数 gcForest的优势: 1、更容易训练; 2、性能更佳; 3、效率高且可扩展、支持…

深度森林浅析

深度森林 深度学习最大的贡献是表征学习(representation learning),通过端到端的训练,发现更好的features,而后面用于分类(或其他任务)的输出function,往往也只是普通的softmax&…

深度森林原理及实现

目录 背景 级联森林 多粒度扫描 代码 总结 背景 深度森林(Deep Forest)是周志华教授和冯霁博士在2017年2月28日发表的论文《Deep Forest: Towards An Alternative to Deep Neural Networks》中提出来的一种新的可以与深度神经网络相媲美的基于树的模型,其结构…

论文阅读:深度森林

论文地址:https://arxiv.org/pdf/1702.08835.pdf 相关代码:https://github.com/kingfengji/gcForest 深度森林是南大周志华老师前两年提出的一种基于随机森林的深度学习模型。 当前的深度学习模型大多基于深度学习神经网络(DNN)…

Deep Forest(gcforest)通俗易懂理解

DeepForest(gcforest)深度森林介绍 1.背景介绍 当前的深度学习模型主要建立在神经网络上,即可以通过反向传播训练的多层参数化可微分非线性模块,周志华老师希望探索深度学习模型的新模式,探索不可微模块构建深度模型的可能性。从而提出了一…

【深度学习】Deep Forest:gcForest算法理解

一、相关理论 本篇博文主要介绍南京大学周志华教授在2017年提出的一种深度森林结构——gcForest(多粒度级联森林)。近年来,深度神经网络在图像和声音处理领域取得了很大的进展。关于深度神经网络,我们可以把它简单的理解为多层非…

从深度学习到深度森林方法(Python)

作者 |泳鱼 来源 |算法进阶 一、深度森林的介绍 目前深度神经网络(DNN)做得好的几乎都是涉及图像视频(CV)、自然语言处理(NLP)等的任务,都是典型的数值建模任务(在表格数据tabular …

深度森林(gcforest)原理讲解以及代码实现

GcForest原理 gcforest采用Cascade结构,也就是多层级结构,每层由四个随机森林组成,两个随机森林和两个极端森林,每个极端森林包含1000(超参数)个完全随机树,每个森林都会对的数据进行训练,每个森林都输出结…

有关 -fPIC 选项的编译问题

嵌入式 Linux 上基于 makefile 的编译,执行编译出现如下错误: error: test/fake_blemgr_test.o: requires unsupported dynamic reloc R_ARM_REL32; recompile with -fPIC 这个问题涉及到生成位置无关代码的机制,在我这里的情况是&#xff0…