离散无记忆与有记忆信源的序列熵

article/2025/5/9 11:09:31

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。

文章目录

      • 离散无记忆信源的序列熵
        • 信源的序列熵
      • 离散有记忆信源的序列熵
        • 平稳有记忆N次扩展源的熵

离散无记忆信源的序列熵

马尔可夫信源的特点:无后效性。

发出单个符号的信源

  • 指信源每次只发出一个符号代表一个消息;

发出符号序列的信源

  • 指信源每次发出一组含二个以上符号的符号序列代表一个消息。

当信源无记忆时:
p ( X ˉ = x i ) = p ( x i 1 , x i 2 , ⋯ , x i L ) = p ( x i 1 ) p ( x i 2 ) p ( x i 3 ) ⋯ p ( x i L ) = ∏ l = 1 L p ( x i l ) \begin{aligned} p(\bar{X}&\left.=x_{i}\right)=p\left(x_{i_{1}}, x_{i_{2}}, \cdots, x_{i_{L}}\right) =p\left(x_{i_{1}}\right) p\left(x_{i_{2}}\right) p\left(x_{i_{3}}\right) \cdots p\left(x_{i_{L}}\right)=\prod_{l=1}^{L} p\left(x_{i_{l}}\right) \end{aligned} p(Xˉ=xi)=p(xi1,xi2,,xiL)=p(xi1)p(xi2)p(xi3)p(xiL)=l=1Lp(xil)

信源的序列熵

H ( X ˉ ) = − ∑ i = 1 n L p ( x i ) log ⁡ p ( x i ) = − ∑ i ∏ l = 1 L p ( x i i ) log ⁡ p ( x i i ) = ∑ l = 1 L H ( X l ) \begin{aligned} H(\bar{X}) &=-\sum_{i=1}^{n^{L}} p\left(x_{i}\right) \log p\left(x_{i}\right) \\ &=-\sum_{i} \prod_{l=1}^{L} p\left(x_{i_{i}}\right) \log p\left(x_{i_{i}}\right)=\sum_{l=1}^{L} H\left(X_{l}\right) \end{aligned} H(Xˉ)=i=1nLp(xi)logp(xi)=il=1Lp(xii)logp(xii)=l=1LH(Xl)

  • 若又满足平稳特性(平稳信号包含的信息量小,其统计特性随时间不变化),即与序号l无关时:

    p ( X ‾ ) = ∏ l = 1 L p ( x i i ) = p L p(\overline{\mathrm{X}})=\prod_{l=1}^{L} p\left(x_{i_{\mathrm{i}}}\right)=p^{L} p(X)=l=1Lp(xii)=pL

  • 信源的序列熵

    H ( X ‾ ) = LH ⁡ ( X ) H(\overline{\mathrm{X}})=\operatorname{LH}(X) H(X)=LH(X)

  • 平均每个符号(消息)熵(符号熵) 为

    H L ( X ˉ ) = 1 L H ( X ˉ ) = H ( X ) H_{L}(\bar{X})=\frac{1}{L} H(\bar{X})=H(X) HL(Xˉ)=L1H(Xˉ)=H(X)

例: 有一个无记忆信源随机变量 X ∈ ( 0 , 1 ) \mathrm{X} \in(0,1) X(0,1) , 等概率分布, 若以单个符号出现为一事件, 则此时的信源熵:

H ( X ) = log ⁡ 2 2 = 1 H(X)=\log _{2} 2=1 H(X)=log22=1 bit/符号

即用 1 比特就可表示该事件。

  • 如果以两个符号出现 ( L = 2 \mathrm{L}=2 L=2 的序列 )为一事件, 则随机序 列 X ∈ ( 00 , 01 , 10 , 11 ) \mathrm{X} \in(00,01,10,11) X(00,01,10,11) , 信源的序列熵

    H ( X ˉ ) = log ⁡ 2 4 = 2 H(\bar{X})=\log _{2} 4=2 H(Xˉ)=log24=2 bit/序列

即用2比特才能表示该事件。

  • 信源的符号熵

    H 2 ( X ‾ ) = 1 2 H ( X ‾ ) = 1 H_{2}(\overline{\mathrm{X}})=\frac{1}{2} H(\overline{\mathrm{X}})=1 H2(X)=21H(X)=1 bit/符号

  • 信源的序列熵

H ( X ‾ ) = H ( X L ) = − ∑ i = 1 9 p ( a i ) log ⁡ p ( a i ) = 3 b i t / 序列  H(\overline{\mathrm{X}})=H\left(X^{L}\right)=-\sum_{i=1}^{9} p\left(a_{i}\right) \log p\left(a_{i}\right)=3 b i t / \text { 序列 } H(X)=H(XL)=i=19p(ai)logp(ai)=3bit/ 序列 

  • 平均每个符号 (消息) 熵为

H ( X ) = − ∑ i = 1 3 p ( x i ) log ⁡ p ( x i ) = 1.5 bit/符号  H ( X ˉ ) = 2 H ( X ) = 2 × 1.5 = 3 b i t / 序列  \begin{array}{c} H(X)=-\sum_{i=1}^{3} p\left(x_{i}\right) \log p\left(x_{i}\right)=1.5 \text { bit/符号 } \\ H(\bar{X})=2 H(X)=2 \times 1.5=3 \mathrm{bit} / \text { 序列 } \end{array} H(X)=i=13p(xi)logp(xi)=1.5 bit/符号 H(Xˉ)=2H(X)=2×1.5=3bit/ 序列 

离散有记忆信源的序列熵

  • 对于有记忆信源,就不像无记忆信源那样简单, 它必须引入条件熵的概念, 而且只能在某些特殊情况下才能得到一些有价值的结论。

  • 对于由两个符号组成的联合信源, 有下列结论:
    H ( X 1 X 2 ) = H ( X 1 ) + H ( X 2 ∣ X 1 ) = H ( X 2 ) + H ( X 1 ∣ X 2 ) H\left(X_{1} X_{2}\right)=H\left(X_{1}\right)+H\left(X_{2} \mid X_{1}\right)=H\left(X_{2}\right)+H\left(X_{1} \mid X_{2}\right) H(X1X2)=H(X1)+H(X2X1)=H(X2)+H(X1X2)

    H ( X 1 ) ≥ H ( X 1 ∣ X 2 ) , H ( X 2 ) ≥ H ( X 2 ∣ X 1 ) H\left(X_{1}\right) \geq H\left(X_{1} \mid X_{2}\right), H\left(X_{2}\right) \geq H\left(X_{2} \mid X_{1}\right) H(X1)H(X1X2),H(X2)H(X2X1)

  • 当前后符号无依存关系时,有下列推论:
    H ( X 1 X 2 ) = H ( X 1 ) + H ( X 2 ) H ( X 1 ∣ X 2 ) = H ( X 1 ) , H ( X 2 ∣ X 1 ) = H ( X 2 ) \begin{array}{l} H\left(X_{1} X_{2}\right)=H\left(X_{1}\right)+H\left(X_{2}\right) \\ H\left(X_{1} \mid X_{2}\right)=H\left(X_{1}\right), H\left(X_{2} \mid X_{1}\right)=H\left(X_{2}\right) \end{array} H(X1X2)=H(X1)+H(X2)H(X1X2)=H(X1),H(X2X1)=H(X2)

  • 若信源输出一个L长序列,则信源的序列熵

    H ( X ‾ ) = H ( X 1 X 2 ⋯ X L ) = H ( X 1 ) + H ( X 2 ∣ X 1 ) + ⋯ + H ( X L ∣ X L − 1 ⋯ X 1 ) = ∑ l L H ( X l ∣ X l − 1 ) = H ( X L ) \begin{aligned} H(\overline{\mathrm{X}}) &=H\left(X_{1} X_{2} \cdots X_{L}\right) \\ &=H\left(X_{1}\right)+H\left(X_{2} \mid X_{1}\right)+\cdots+H\left(X_{L} \mid X_{L-1} \cdots X_{1}\right) \\ &=\sum_{l}^{L} H\left(X_{l} \mid X^{l-1}\right)=H\left(X^{L}\right) \end{aligned} H(X)=H(X1X2XL)=H(X1)+H(X2X1)++H(XLXL1X1)=lLH(XlXl1)=H(XL)

  • 平均每个符号的熵为:

    H L ( X ˉ ) = 1 L H ( X L ) H_{L}(\bar{X})=\frac{1}{L} H\left(X^{L}\right) HL(Xˉ)=L1H(XL)

  • 若当信源退化为无记忆时: 若进一步又满足平稳性时

    H ( X ˉ ) = ∑ l L H ( X l ) H ( X ˉ ) = L H ( X ) H(\bar{X})=\sum_{l}^{L} H\left(X_{l}\right) \quad H(\bar{X})=L H(X) H(Xˉ)=lLH(Xl)H(Xˉ)=LH(X)

平稳有记忆N次扩展源的熵

X \mathbf{X} X 为离散平稳有记忆信源, X \mathbf{X} X N \mathbf{N} N 次扩展源记为 X N X^{N} XN ,

X N = [ X 1 X 2 ⋯ X N ] X^{N}=\left[X_{1} X_{2} \cdots X_{N}\right] XN=[X1X2XN]
根据熵的可加性,得
H ( X N ) = H ( X 1 X 2 ⋯ X N ) = H ( X 1 ) + H ( X 2 / X 1 ) + ⋯ H ( X N / X 1 ⋯ X N − 1 ) H\left(X^{N}\right)=H\left(X_{1} X_{2} \cdots X_{N}\right)=H\left(X_{1}\right)+H\left(X_{2} / X_{1}\right)+\cdots H\left(X_{N} / X_{1} \cdots X_{N-1}\right) H(XN)=H(X1X2XN)=H(X1)+H(X2/X1)+H(XN/X1XN1)
根据平稳性和熵的不增原理,得 H ( X N ) ≤ N H ( X 1 ) H\left(X^{N}\right) \leq N H\left(X_{1}\right) H(XN)NH(X1), 仅当无记忆信源时等式成立。

对于 X \mathrm{X} X N \mathrm{N} N 次扩展源, 定义平均符号熵为:

H N ( X ) = 1 N H ( X N ) = 1 N H ( X 1 ⋯ X N ) H_{N}(X)=\frac{1}{N} H\left(X^{N}\right)=\frac{1}{N} H\left(X_{1} \cdots X_{N}\right) HN(X)=N1H(XN)=N1H(X1XN)
信源 X \mathrm{X} X 的极限符号熵定义为:
H ∞ ( X ) = lim ⁡ N → ∞ 1 N H ( X N ) = lim ⁡ N → ∞ 1 N H ( X 1 ⋯ X N ) H_{\infty}(X)=\lim _{N \rightarrow \infty} \frac{1}{N} H(X^{N})=\lim _{N \rightarrow \infty} \frac{1}{N} H(X_{1} \cdots X_{N}) H(X)=NlimN1H(XN)=NlimN1H(X1XN)
极限符号熵简称符号熵, 也称熵率

定理: 对任意离散平稳信源, 若 H 1 ( X ) < ∞ H_{1}(X)<\infty H1(X)< , 有:

(1) H ( X N / X 1 ⋯ X N − 1 ) H\left(X_{N} / X_{1} \cdots X_{N-1}\right) H(XN/X1XN1) 不随 N \mathbf{N} N而增加;
(2) H N ( X ) ≥ H ( X N / X 1 ⋯ X N − 1 ) ; H_{N}(X) \geq H\left(X_{N} / X_{1} \cdots X_{N-1}\right) ; HN(X)H(XN/X1XN1);
(3) H N ( X ) H_{N}(X) HN(X) 不随 N 而增加;
(4) H ∞ ( X ) H_{\infty}(X) H(X) 存在,且 H ∞ ( X ) = lim ⁡ N → ∞ H ( X N / X 1 ⋯ X N − 1 ) H_{\infty}(X)=\lim _{N \rightarrow \infty} H(X_{N} / X_{1} \cdots X_{N-1}) H(X)=limNH(XN/X1XN1)

该式表明, 有记忆信源的符号熵也可通过计算极限条件熵得到。

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.

http://chatgpt.dhexx.cn/article/3swsglHL.shtml

相关文章

连续信源微分熵+AEP

目录 一&#xff1a;连续信源 最大熵定理 二&#xff1a;渐进均分性 1&#xff1a;随机变量收敛性 2&#xff1a;大数定律 3&#xff1a;AEP(渐进均分性) 4&#xff1a;典型集 三&#xff1a;数据压缩 一&#xff1a;连续信源 1&#xff09;连续随机变量的微分熵 由概率密度…

【信息论】信源与信源熵(三)

接上一节 第二章-信源与信息熵&#xff08;二&#xff09; 2.4 连续信源的熵与互信息 1. 实际中&#xff0c;连续信源 a) 幅度连续 b) 时间或频率上也连续 2. 统计特性 a) 概率密度函数 3. 用离散变量来逼近连续变量 连续信源熵 1.…

信息论基础——信源熵及其性质研究

本文仅供学习使用&#xff0c;如有侵权请及时联系&#xff0c;博主会第一时间进行处理 信源熵及其性质研究 一、实验目的二、实验原理及内容三、实验设备与材料四、实验步骤五、实验程序及运行结果六、实验总结 一、实验目的 1.掌握离散信源熵的含义及其计算方法&#xff1b;…

离散信源熵1

目录 一&#xff1a;熵的定义 二&#xff1a;联合熵和条件熵 三&#xff1a;相对熵 四&#xff1a;互信息 五&#xff1a;条件互信息 六&#xff1a;条件相对熵 一&#xff1a;熵的定义 解释&#xff1a;,由于P(x)介于0-1之间&#xff0c;大于等于0.不等式&#xff1a; …

离散信源的熵——信息论实验一(Matlab)

信息论与编码技术实验报告 学院&#xff1a; 信息科学与工程学院 班级&#xff1a; 2020通信工程1班 姓名&#xff1a; 麦兜 实验名称 实验一、离散信源的熵 实验设备 &#xff08;1&#xff09;计算机 &#xff08;2&#xff09;所用软件&#xff1a;Matlab或C 实…

离散信源熵2

目录 1&#xff1a;熵的凸性 相对熵的下凸性 熵的上凸性 2&#xff1a;信源的分类 3&#xff1a;自信息 四&#xff1a;离散无记忆扩展信源 五&#xff1a;马尔科夫信源 六&#xff1a;马尔可夫信源的信源熵 求解方法 计算例子 1&#xff1a;熵的凸性 凸函数是定义在定义…

【信息论】信源与信源熵(一)

— 主要内容 1. 信源的分类与描述 2. 离散信源的信息熵和互信息 3. 离散序列信源的熵 4. 连续信源的熵与互信息 5. 冗余度 2.1 信源的分类与描述 — 信源的定义 产生消息&#xff08;符号&#xff09;、消息序列和连续消息的来源。 信源的基本…

信息论实验一:信源熵的计算

本次实验是基础的计算信源熵&#xff0c;代码很简单。 为了便于计算&#xff0c;将概率和不为1的重新输入以及把概率为0删除&#xff01;&#xff01;&#xff01; format short; %定义输出的格式 p input(p ); %输…

第二章-信源与信息熵(一)

— 主要内容 1. 信源的分类与描述 2. 离散信源的信息熵和互信息 3. 离散序列信源的熵 4. 连续信源的熵与互信息 5. 冗余度 2.1 信源的分类与描述 — 信源的定义 产生消息&#xff08;符号&#xff09;、消息序列和连续消息的来源。 信…

[信息论与编码] 03. 离散信源、信源熵、联合熵、条件熵

离散信源 信源即信息发出的源头&#xff0c;在后续的信道模型中&#xff0c;信源发出的信息即视为信道输入的信息。 根据信源发出信息的取值&#xff0c;可将信源分为离散信源和连续信源。 顾名思义&#xff0c;离散信源即发出的信息取值为离散型的信源&#xff1b;连续信源即…

Tomcat目录详解

Tomcat 1.bin&#xff1a;启动和关闭Tomcat2.conf3.lib4. logs5.temp6.webapps7.work Tomcat 1.bin&#xff1a;启动和关闭Tomcat 该目录下存放的是二进制可执行文件&#xff0c; 如果是安装版&#xff0c;那么这个目录下会有两个exe文件&#xff1a;tomcat6.exe、tomcat6w.…

Tomcat介绍及三种启动方式的区别

一、Tomcat的下载 二、Tomcat目录说明 三、Tomcat常用命令 四、Tomcat服务的安装 五、Tomcat启动的三种方式 六、三种启动方式的区别 七、Tomcat端口占用问题 一、Tomcat的下载 官方下载网址&#xff1a;http://tomcat.apache.org/&#xff0c;可自行下载需要的版本。 …

一、Tomcat概述

一、Tomcat概述 Tomcat是Java语言开发的&#xff0c;Tomcat服务器是一个免费的开放源代码的Web应用服务器&#xff0c;是Apache软件基金会的Jakarta项目中的一个核心项目,由Apache、Sun和其他一些公司及个人共同开发而成。Tomcat属于轻量级应用服务器&#xff0c;在中小型系统…

Tomcat介绍使用+JavaWeb创建+打成war包部署

Tomcat简介 终端访问服务器&#xff0c;通过ip端口号访问&#xff0c;web应用部署在web服务器上&#xff0c;才可以”对接“ ip端口 进程交互 Tomcat、Jboss、Weblogic、Jetty Tomcat下载地址 tomcat地址 http://tomcat.apache.org 解压缩 解压过是一个文件夹 bin: 各个平台…

tomcat介绍-通俗易懂篇

我叫Tomcat&#xff1a;一款web服务器 如何将我们的Java代码&#xff0c;运行在网络上&#xff0c;出学时&#xff0c;首先接触到的一般都是Servlet以及Jsp&#xff08;或掠过Jsp&#xff09;而Tomcat就是这两者的容器&#xff0c;帮你处理动态网页部分 &#xff08;一&#xf…

Tomcat介绍及安装JDK1.8

Tomcat介绍 Tomcat是Apache软件基金会&#xff08;Apache Software Foundation&#xff09;的Jakarta项目中的一个核心项目&#xff0c;由Apache、Sun和其他一些公司及个人共同开发而成&#xff1b; java程序写的网站用tomcatjdk来运行&#xff1b; tomcat是一个中间件&#xf…

Tomcat介绍和安装,以及tomcat的虚拟主机配置

为什么Tomcat火了 Tomcat介绍Tomcat核心组件简述Tomcat处理请求过程Tomcat目录机构 Tomcat安装虚拟主机配置 Tomcat介绍 ●自从JSP发布之后,推出了各式各样的JSP引擎,Apache Group在完成GNUJSP1.0的开发以后,开始考虑在SUN的JSWDK基础上开发一个可以直接提供Web服务的JSP服务器…

Tomcat基础详解

一、Tomcat目录介绍 bin&#xff1a; 专门用来存放Tomcat服务器的可执行程序 conf&#xff1a; 专门用来存放Tomcat服务器的配置文件 lib&#xff1a; 专门用来存放Tomcat服务器的jar包 logs&#xff1a; 专门用来存放Tomcat服务器运行时输出的日志信息 temp&#xff1a; 专门…

tomcat目录介绍

这里以apache-tomcat-8.5.69为例&#xff0c;目录结构如下&#xff1a; 一共有bin&#xff0c;conf&#xff0c;lib&#xff0c;logs&#xff0c;temp&#xff0c;webapps&#xff0c;work&#xff0c; 一共7个文件夹&#xff0c;下面来对它们分别进行介绍&#xff1a; &#…

tomcat介绍与使用

tomcat介绍与使用 web服务器 web服务器是运行及发布web应用的容器&#xff0c;只有将开发的web项目放置到该容器中&#xff0c;才能使网络中的所有用户通过浏览器进行访问。常见的web服务器如下&#xff1a; Tomcat&#xff1a;主流的web服务器之一&#xff0c;适合初学者使用…