信息量是怎么计算的

209次

问题描述:

信息量如何计算

推荐答案

2023-10-24 03:56:14

计算公式是I=log2(1/p),其中p是概率,log2指以二为底的对数。但对信息量作深入而系统研究,还是从1948年C.E.香农的奠基性工作开始的。在信息论中,认为信源输出的消息是随机的。

信息量与信息熵在概念上是有区别的。在收到符号之前是不能肯定信源到底发送什么符号,通信的目的就是使接收者在收到符号后,解除对信源存在的疑义(不确定度),使不确定度变为零。这说明接收者从发送者的信源中获得的信息量是一个相对的量(H(U)-0)。而信息熵是描述信源本身统计特性的物理量,它表示信源产生符号的平均不确定度,不管有无接收者,它总是客观存在的量。

其他答案

2023-10-24 03:56:14

信息量 I=log2(1/p)其中 p是概率, log2指以二为底的对数。对于第一问,“不能使用”, 其概率为25%(35度以下)+5%(40度以上)=30%信息量 I=log2(1/0.3)=1.

7第二问,"能使用", 其概率p=1-0.3=0.

7信息量 I=log2(1/0.7)=0.515第三问,“因为装置在冷却中不能使用” ,其概率p为5%信息量 I=log2(1/0.05)=4.322 参见《通信原理》,樊昌信第五版,第八页。

其他答案

2023-10-24 03:56:14

信息量也称信息熵,它的计算公式:H(x)=E(I(xi))=E(log(/P(xi)))=-∑P(xi)log(P(xi))(i=.....n)。其中,x表示随机变量,与之相对应的是所有可能输出的集合,定义为符号集,随机变量的输出用x表示。P(x)表示输出概率函数。变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。

知道问答相关问答

(c)2008-2025 自学教育网 All Rights Reserved 汕头市灵创科技有限公司
粤ICP备2024240640号-6