平均信息量的计算公式是I=log2(1/p),其中p是概率,log2指以二为底的对数。
但对信息量作深入而系统研究,还是从1948年C.E.香农的奠基性工作开始的。
在信息论中,认为信源输出的消息是随机的。信息量与信息熵在概念上是有区别的。
在收到符号之前是不能肯定信源到底发送什么符号,通信的目的就是使接收者在收到符号后,解除对信源存在的疑义(不确定度),使不确定度变为零。
这说明接收者从发送者的信源中获得的信息量是一个相对的量(H(U)-0)。
而信息熵是描述信源本身统计特性的物理量,它表示信源产生符号的平均不确定度,不管有无接收者,它总是客观存在的量。
平均信息量怎么计算
单个字符的概率P1=1/5*1/2=1/10 连续两个字符的概率P2 = 1/20*1/2=1/40
同概率平均信息量:H(p)=∑P(x)log1/p(x)
所以,H(p)=5*1/10*log10 + 20*1/40*log40
=1.66+2.16
=3.82 bit/字符
符号周期为T
符号速率R1=1/T
平均信息速率为R2=R1*H(p)=3.82/T
符号周期自带