信息熵笔记

article/2025/8/25 6:40:53

观察两个事件同时发生时获得的信息量应该等于观察到事件各自发生时获得的信息之和?
两个事件的信息量之和等于两个事件和的信息量?
两个随机变量熵的和大于两个随机变量和的熵
在这里插入图片描述
图片引自:https://blog.csdn.net/luoxuexiong/article/details/113059152#:~:text=%E5%9C%A8%E6%A6%82%E7%8E%87%E8%AE%BA%E5%92%8C%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B8%AD%EF%BC%8C%E4%B8%A4%E4%B8%AA%E9%9A%8F%E6%9C%BA%E5%8F%98%E9%87%8F%E7%9A%84%E4%BA%92%E4%BF%A1%E6%81%AF%EF%BC%88Mutual%20Information%EF%BC%8C%E7%AE%80%E7%A7%B0MI%EF%BC%89%E6%88%96%E8%BD%AC%E7%A7%BB%E4%BF%A1%E6%81%AF%EF%BC%88transinformation%EF%BC%89%E6%98%AF%E5%8F%98%E9%87%8F%E9%97%B4%E7%9B%B8%E4%BA%92%E4%BE%9D%E8%B5%96%E6%80%A7%E7%9A%84%E9%87%8F%E5%BA%A6%E3%80%82.%20%E4%B8%8D%E5%90%8C%E4%BA%8E%E7%9B%B8%E5%85%B3%E7%B3%BB%E6%95%B0%EF%BC%8C%E4%BA%92%E4%BF%A1%E6%81%AF%E5%B9%B6%E4%B8%8D%E5%B1%80%E9%99%90%E4%BA%8E%E5%AE%9E%E5%80%BC%E9%9A%8F%E6%9C%BA%E5%8F%98%E9%87%8F%EF%BC%8C%E5%AE%83%E6%9B%B4%E5%8A%A0%E4%B8%80%E8%88%AC%E4%B8%94%E5%86%B3%E5%AE%9A%E7%9D%80%E8%81%94%E5%90%88%E5%88%86%E5%B8%83%20p%20%28X%2CY%29%20%E5%92%8C%E5%88%86%E8%A7%A3%E7%9A%84%E8%BE%B9%E7%BC%98%E5%88%86%E5%B8%83%E7%9A%84%E4%B9%98%E7%A7%AF%20p%20%28X%29p,%E7%9A%84%E7%9B%B8%E4%BC%BC%E7%A8%8B%E5%BA%A6%E3%80%82.%20%E4%BA%92%E4%BF%A1%E6%81%AF%20%28Mutual%20Information%29%E6%98%AF%E5%BA%A6%E9%87%8F%E4%B8%A4%E4%B8%AA%E4%BA%8B%E4%BB%B6%E9%9B%86%E5%90%88%E4%B9%8B%E9%97%B4%E7%9A%84%E7%9B%B8%E5%85%B3%E6%80%A7%20%28mutual%20dependence%29%E3%80%82.%20%E4%BA%92%E4%BF%A1%E6%81%AF%E6%98%AF%E7%82%B9%E9%97%B4%E4%BA%92%E4%BF%A1%E6%81%AF%EF%BC%88PMI%EF%BC%89%E7%9A%84%E6%9C%9F%E6%9C%9B%E5%80%BC%E3%80%82.%20%E4%BA%92%E4%BF%A1%E6%81%AF%E6%9C%80%E5%B8%B8%E7%94%A8%E7%9A%84%E5%8D%95%E4%BD%8D%E6%98%AFbit%E3%80%82.
在这里插入图片描述

1.自信息 (self-information)

I(x)=− log p(x)
自信息表示子事件的信息量 (概率越小,信息量越大)
如果事件X=x的概率为p ,那么X可以视作由1/p个这样的事件构成,需要长度为log(1/p)的编码对这1/p个事件进行编码
在这里插入图片描述
图片来源:https://www.cnblogs.com/kyrieng/p/8694705.html

2.信息熵 (Shannon’s entropy)

信息熵:随机变量中所有事件的平均信息量,即自信息的期望
在这里插入图片描述
min H=0
max H=ln n ,离散对象
max H=ln l ,连续对象

log 函数基的选择是任意的
信息论中基常常选择为2,因此信息的单位为比特bits;
机器学习中基常常选择为自然常数,因此单位常常被称为奈特nats

An attribute with a very large domain normally divides the database into more smaller classes than an attribute with a small domain. A regularity found in a very small portion of database may not necessarily be useful. On the other hand, an attribute with small domain usually divides the database into a few larger classes. One may not find regularities in such large subsets of the database. Entropy values may be used to control the selection of attributes. It is expected that an attribute with middle range entropy values may be more useful. Similar ideas have been used successfully in information retrieval.

3.联合熵 (joint entropy)

在这里插入图片描述

4.交叉熵

在这里插入图片描述
参考:https://www.zhihu.com/question/41252833

用2进制编码对所有单词进行编码
信息熵是单词编码后位数期望的最小值
即最佳编码方式为通过使用概率决定单词位置: 单词位数= -log p
但是由于实际是在制定编码方式时使用的时单词的使用频率q,这中情况下单词编码长度的期望就是交叉熵

交叉熵衡量在给定的真实分布下,使用非真实分布所指定的策略消除系统的不确定性所需要付出的努力的大小

5.条件熵

产品条件熵能够衡量用户对于产品偏好之间的单向关联。???关联竟然不是相互的?可以理解,但首次听说

H(XIY)=H(X,Y)-H(Y)=H(X)-I(X;Y)
已知随机变量Y的条件下随机变量X的不确定性
感性理解
信息熵减去相关的部分
数学证明
在这里插入图片描述

6.相对熵(relative entropy)

相对熵可以衡量两个随机分布之间的距离,当两个随机分布相同时,它们的相对熵为零,当两个随机分布的差别增大时,它们的相对熵也会增大。

相对熵又被称为Kullback-Leibler散度(Kullback-Leibler divergence)或信息散度(information divergence)

相对熵表示使用理论分布拟合真实分布时产生的信息损耗
相对熵等价于两个概率分布的信息熵的差值
相对熵是两个概率分布间差异的非对称性度量
在这里插入图片描述

在这里插入图片描述
相对熵是两个概率分布间差异的非对称性度量

7.互信息 (Mutual Information)

互信息描述了随机变量之间的相关性 (依赖性)
I(X;Y)=H(X)+H(Y)-H(X,Y)
如果X和Y完全无关:H(X)+H(Y)=H(X,Y) – 信息熵的和等于联合熵
否则:H(X)+H(Y)>H(X,Y)
若无关则联合熵等于信息熵的和,若相关则联合熵小于信息熵的和
min I=0
max I=H(X)=H(Y)
I(X,X)=H(X)

The mutual information measures the decrease of uncertainty about X caused by the knowledge of Y
It is a measure of the amount of information about X contained in Y .

相似性

单向相似性是条件熵
双向相似性是互信息
单向相似性?

完全相似 <=> 条件熵=0
在这里插入图片描述

产品熵

取自论文《基于熵的协同过滤推荐模型》
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
熵值高的产品:评价多,评价较为不同
熵值低的产品:价极少,评价较为一致


http://chatgpt.dhexx.cn/article/Ylx20l52.shtml

相关文章

一文弄懂信息熵

引言 今天我们来探讨一下信息熵是怎么来的。 信息熵 信息的价值在于消除事件的不确定性&#xff0c;那事件的不确定性要怎么度量呢&#xff1f;答案就是信息熵(information entropy)。 比如你告诉别人你中了500万彩票&#xff0c;别人会大吃一惊&#xff0c;因为他被消除了…

信息熵 entropy

熵 最早是由热力学定义的一个函数&#xff0c;是普朗克来中国讲学的时候引入的。英文是“entropy”这个字&#xff0c;中文词汇中没有相关的字眼。当时是一个有名的姓胡的学者作为普朗克的翻译。因为这个熵“S”是定义为热量Q与温度的比值&#xff0c;所以当时他翻译是立刻创造…

信息熵学习笔记

简介 在信息论中&#xff0c;熵&#xff08;entropy&#xff09;是接收的每条消息中包含的信息的平均量&#xff0c;又被称为信息熵、信源熵、平均自信息量。 熵最好理解为不确定性的量度而不是确定性的量度&#xff0c;因为越随机的信源的熵越大。 比较不可能发生的事情&…

信息熵到底是什么

信息是我们一直在谈论的东西&#xff0c;但信息这个概念本身依然比较抽象。在百度百科中的定义&#xff1a;信息&#xff0c;泛指人类社会传播的一切内容&#xff0c;指音讯、消息、通信系统传输和处理的对象。 但信息可不可以被量化&#xff0c;怎样量化&#xff1f;答案当然…

什么是信息熵

熵 当一件事情&#xff08;宏观态&#xff09;有多种可能情况&#xff08;微观态&#xff09;时,这件事情&#xff08;宏观态&#xff09;对某人&#xff08;观察者&#xff09;而言具体是哪种情况&#xff08;微观态&#xff09;的不确定性叫做熵&#xff08;entropy&#xff…

信息熵是什么

信息熵是什么 通过前两节的学习&#xff0c;我们对于决策树算法有了大体的认识&#xff0c;本节我们将从数学角度解析如何选择合适的“特征做为判别条件”&#xff0c;这里需要重点掌握“信息熵”的相关知识。 信息熵这一概念由克劳德香农于1948 年提出。香农是美国著名的数学…

单选按钮html图片,js实现的 图片单选按钮效果

【实例简介】用js实现的radio图片选择按钮效果。 【实例截图】 【核心代码】 用JS实现的radio图片选择按钮效果-脚本之家 .lanrentuku img{border:1px solid #008800;} function myFun(sId) { var oImg document.getElementsByTagName(img); for (var i 0; i < oImg.lengt…

html自定义单选按钮,美化表单——自定义单选按钮和复选按钮

大家都知道&#xff0c;在Web的Form中美化是最头痛的&#xff0c;尤其是表单中的“input[typecheckbox]”、“input[type"radio"]”、“input[typefile]”和select这些元素我们单单只使用CSS是无法匹配设计图的&#xff0c;像背景颜色或者背景图片&#xff0c;甚至说…

Android开发单选按钮功能,android实现单选按钮功能

在我们平时在注册个人信息的时候,经常会让我们选择是男生还是女生,那么这个单选框在Android中是怎么实现的呢?现在我们就来学习一下吧 首先我们要明白实现这样一个效果需要哪几部? 1、在layout布局文件中建立一个文件,我起的名字为activity_radio.xml 代码为: android:la…

单选按钮RadioButton

效果示例&#xff1a; MRadioButton.h //******************************************************** /// brief 自定义单选按钮 /// author y974183789gmail.com /// date 2021/9/18 /// note 支持自定义设置单选指示器位置 /// version 1.0.0 //***************************…

单选按钮(RadioButton)与 复选框(CheckBox)的功能与 用法

按照惯例&#xff0c;先看看两者的区别&#xff1a; 顾名思义&#xff0c;单选俺就就是只能选中一项的&#xff0c;而复选框是可以多选的。 一般来说&#xff0c;单选按钮是用于只有唯一答案的问题的答案选项中&#xff0c;而复选框用于一些可以多选的问题的答案中。 下面看看…

Android——单选多选按钮的使用详解

一&#xff1a;单选按钮 单选按钮类&#xff1a;RadioButton android&#xff1a;checked"true"设置默认选中 单选按钮控件通常与RadioGroup搭配使用。 RadioGroup是LinearLayout的子类&#xff0c;用于将多个单选按钮组合为一组。 同一按钮组内的单选…

Android 之 RadioButton (单选按钮) Checkbox (复选框)

本节引言&#xff1a; 本节给大家带来的是Andoird基本UI控件中的RadioButton和Checkbox; 先说下本节要讲解的内容是&#xff1a;RadioButton和Checkbox的1.基本用法 2.事件处理&#xff1b; 3.自定义点击效果&#xff1b; 4.改变文字与选择框的相对位置&#xff1b; 5.修改文字…

FTP服务器-vsftpd

FTP服务基础 FTP&#xff08;File Transfer Protocol,文件传输协议&#xff09;是典型的C/S结构的应用层协议&#xff0c;需要由服务端软件、客户端软件两个部分共同实现文件传输功能。 FTP连接及传输模式 FTP服务器默认使用TCP协议的20、21端口与客户端进行通信。 20端口用…

ftpvsftpd服务

一. ftp ftp即文件传输,它是INTERNET上仍然常用的最老的网络协议之一,它为系统提供了通过网络与远程服务器传输的简单方法,FTP服务器包的名称为vsftpd 二. 部署ftp服务 1. 安装ftp yum install -y vsftpd #安装vsftpd软…

VSFTPD服务器配置

文章目录 一、实验环境二、实验目的三、实验任务任务一&#xff1a;根据以下要求配置服务器1&#xff09; 配置FTP匿名用户的主目录为/var/ftp,该账户只能下载&#xff0c;不能上传。2&#xff09;建立一个名为abc、口令xyz的FTP账户&#xff0c;设置账户具有上传、下载权限。3…

ftpd服务常见配置总结(/etc/vsftpd/vsftpd.conf)

命令端口&#xff1a; listen_port21 注意&#xff1a;该信息默认没有&#xff0c;使用的话&#xff0c;需要用户自己添加。默认是21。 主动模式端口&#xff1a; connect_from_port_20YES 主动模式端口为20&#xff08;该项配置文件默认已经添加&#xff09; ftp_data_por…

Linux系统中vsftpd配置及如何添加vsFTPd用户和设置权限

vsftpd是一款在Linux发行版中最受推崇的FTP服务器程序。特点是小巧轻快&#xff0c;安全易用。 如果你想在你的Linux/Unix服务器上搭建一个安全、高性能、稳定性好的FTP 服务器&#xff0c;那么vsftpd可能是你的首选应用。vsftpd意思为“very secure FTP daemon(非常安全的FTP…

VSFTPD

首先&#xff0c;下载Metasploitable2-linux,在虚拟机点击文件&#xff0c;然后直接打开。 然后开启此虚拟机&#xff0c;默认用户名和密码都是msfadmin&#xff0c; 登录之后输入ifconfig查看靶机ip 打开kali&#xff0c;打开终端模拟器 输入sudo su&#xff0c;再输入用户密…

vsftp

一、概述 FTP是file Transfer Protocoll文件传输下ieyi&#xff0c;用于Internet上的文件的双向传输。因ftp是明文传输&#xff0c;没有受到保护&#xff0c;所以具有一定危险性。 VSFTP是一个基于GPL发布的类unix系统上使用的FTP服务器软件。为了解决ftp传输安全性问题的&…