⑴ 信息量的计算方法
信息论创始人C.E.Shannon,1938年首次使用比特(bit)概念:1(bit)= 。它相当于对二个可能结局所作的一次选择量。信息论采用对随机分布概率取对数的办法,解决了不定度的度量问题。
m个对象集合中的第i个对象,按n个观控指标测度的状态集合的
全信息量TI= 。
从试验后的结局得知试验前的不定度的减少,就是申农界定的信息量,即
自由信息量FI=-∑pi ,(i=1,2,…,n)。
式中pi是与随机变量xi对应的观控权重,它趋近映射其实际状态的分布概率。由其内在分布构成引起的在试验前的不定度的减少,称为先验信息或谓约束信息量。风险是潜藏在随机变量尚未变之前的内在结构能(即形成该种结构的诸多作用中还在继续起作用的有效能量)中的。可以显示、映射这种作用的是
约束信息量BI=TI-FI。
研究表明,m个观控对象、按n个观控指标进行规范化控制的比较收益优选序,与其自由信息量FI之优选序趋近一致;而且各观控对象“愈自由,风险愈小”;约束信息量BI就是映射其风险的本征性测度,即风险熵。
把信息描述为信息熵,是状态量,其存在是绝对的;信息量是熵增,是过程量,是与信息传播行为有关的量,其存在是相对的。在考虑到系统性、统计性的基础上,认为:信息量是因具体信源和具体信宿范围决定的,描述信息潜在可能流动价值的统计量。本说法符合熵增原理所要求的条件:一、“具体信源和信宿范围”构成孤立系统,信息量是系统行为而不仅仅是信源或信宿的单独行为。二、界定了信息量是统计量。此种表述还说明,信息量并不依赖具体的传播行为而存在,是对“具体信源和具体信宿”的某信息潜在可能流动价值的评价,而不是针对已经实现了的信息流动的。由此,信息量实现了信息的度量。
⑵ 通信原理信息量问题怎么算
启初假币的概率是1/27
一次称重后,假币的概率1/9
信息量是不确定性的消除,所以用仙农公式代表的信息量做一次差,就得了了第一次称重所获得的信息量
⑶ 信息量的大小如何衡量
信息量的大小与声音强弱也无关,比如把收音机开得响些,你得到的信息也不会由此而增加。信息论的研究表明,信息量的大小与事件发生的可能性的概率有关。
信息量不能用得到消息的次数来度量,因为千万个消息可能委复着相同的内容;不能用文字的多少来度量,文字再多,全是废话,信息量并不会增大。
信息量指的是什么
信息多少的量度。1928年R.V.L.哈特莱首先提出信息定量化的初步设想,他将消息数的对数定义为信息量。若信源有m种消息,且每个消息是以相等可能产生的,则该信源的信息量可表示为I=logm。
对信息量作深入而系统研究,还是从1948年C.E.仙农的奠基性工作开始的。在来信洎头息论筿中,认为信源输出的消息是随机的。
即在未收到消息之前,是不能肯定信源到底发送什么样的消息。而通信的目的也就是要使接收者在接收到消息后,尽可能多的解除接收者对信源所存在的疑义(不定度),因此这个被解除的不定度实际上就是在通信中所要传送的信息量。
⑷ 怎样求信息的平均信息速率
1、平均信息量乘以码元率(即波特率)。
2、计算该速率:(log2224≈7.8)m=1000H(x=16x1/32log1/32+112x1/224log1/224=6.404比特/符号Rb=m·H(X)=1000x6.404。
3、要看用什么调制方式,如普通平衡双边边调幅与正交调幅所用的带宽就不同,还有用不同数量的符号结果也不同,如正交的4QAM与64QAM差数倍,也就是用64QAM方式调制与用4QAM方式调制后,传输同样速度的信息速率,前者要占用更少的带宽。
4、波特率与比特率的关系是比特率= 波特率×单个调制状态对应的二进制位数。在不同的信号调制系统中,每个码元所载的比特是不同的。例如,二进制数字传输中一个码元可携带一个bit,八进制数字传输中,一个码元可载3个bit。一个码元有8个状态值时,2^3=8,也就是说在调制时,每3个比特组成一个码元,其对应的8个状态就是在星座图中的8个点,例如8 PSK,即该码元携带3个bit的信息量。 一般考试时都会告诉你RB的值,常规有9600 4800等
5、一般而言,每个码元脉冲可代表log2 M个M进制bit。即,比特率与波特率的关系为Rb = RB log2M bps。
6、举例说明:若一个码元有4个状态值时,该码元携带多少bit的信息量?在9600波特对应的信息传输速率是多少b/s?
解答:在4个状态值时,按上述的推理可以知道(2^2=4),每2个比特组成一个码元。即该码元携带2个bit的信息量。
在9600RB条件下,利用Rb公式,就可以直接得到= 9600×log2(4)=9600×2=19200 bps。
⑸ 信息的自信息量如何计算
信息量 I=log2(1/p)其中 p是概率, log2指以二为底的对数。 对于第一问,“不能使用”, 其概率为25%(35度以下)+5%(40度以上)=30% 信息量
⑹ 一道简单的平均信息量计算
哥来回答~~底数为2就是比特,e就是奈特,10就是哈特,那道题目计算信息熵~~~
⑺ 信息量是怎么计算的
假设我错过了某年的世界杯比赛,现在要去问一个知道比赛结果的朋友“哪支球队最终获得世界杯冠军”?他要求我猜,猜完会告诉我是对还是错,但我每猜一次就要给他一块钱。那么我需要付给他多少钱才能知道谁是冠军?我可以把球队编号,从1到32,然后问“冠军的球队在1-16号中吗?”。假如他告诉我对了,我就问“冠军的球队在1-8号中吗?”。如果他告诉我不对,我就自然就知道冠军队在9-16号中。这样我只需要猜5次就可以知道哪支球队是冠军了。所以,“谁是世界杯冠军”这个问题的答案的信息量只值5块钱。香农用“比特”(bit)来作为信息量的单位。像上边“谁是世界杯冠军”这个问题的答案的信息量是5比特。如果是64支球队,“谁是世界杯冠军”这个问题的答案的信息量就是6比特,因为要多猜一次。
对足球了解的朋友看到这有疑问了,他觉得他不需要5次来猜。因为他知道巴西,西班牙,德国等这些强队夺冠的可能性比日本,韩国等球队大的多。所以他可以先把强队分成一组,剩下的其它队伍一组。然后问冠军是否在夺冠热门组里边。重复这样的过程,根据夺冠的概率对剩下的候选球队分组,直至找到冠军队,这样也许三次或四次就猜出结果了。因此,当每支球队夺冠的可能性(概率)不一样时,“谁是世界杯冠军”这个问题的答案的信息量比5比特少。
香农指出,“谁是世界杯冠军”这个问题的答案的信息量是:
H = -(p1*log(p1) + p2 * log(p2) + ... + p32 * log(32))
其中log是以2为底数的对数,以下本文中的log都是以2为底的对数,下边不再特别说明。
这就是衡量信息量多少的公式,它的单位是比特。之所以称为熵是因为它的定义形式和热力学的熵有很大的相似性。对于一个随机变量X的信息熵的定义公式为:
H(X)=-∑P(xi)logP(xi)
其中xi是随机变量X的可能取值。
更多计算信息量的例子可以看这篇文章:信息怎么衡量多少?
⑻ 怎样衡量信息量的大小呢
如果用统计学的术语来描述,就是出现概率小的事件信息量多。因此,事件出现得概率越小,信息量愈大。即信息量的多少是与事件发生频繁(即概率大小)成反比。
例题:向空中投掷硬币,落地后有两种可能的状态,一个是正面朝上,另一个是反面朝上,每个状态出现的概率为1/2。如投掷均匀的正六面体的骰子,则可能会出现的状态有6个,每一个状态出现的概率均为1/6。试通过计算来比较骰子状态的不肯定性与硬币状态的不肯定性的大小。
信息量的简介:
信息量是指信息多少的量度。1928年R.V.L.哈特莱首先提出信息定量化的初步设想,他将消息数的对数定义为信息量。若信源有m种消息,且每个消息是以相等可能产生的,则该信源的信息量可表示为I=logm。但对信息量作深入而系统研究,还是从1948年C.E.香农的奠基性工作开始的。
在信息论中,认为信源输出的消息是随机的。即在未收到消息之前,是不能肯定信源到底发送什么样的消息。而通信的目的也就是要使接收者在接收到消息后,尽可能多的解除接收者对信源所存在的疑义(不定度),因此这个被解除的不定度实际上就是在通信中所要传送的信息量。
⑼ 信号的信息量与什么有关如何计算数字信号信息量的主要使用单位是什么
信号信息量主要和信号出现的概率有关
如果一个信号一定出现,那么概率P(X)=1,其信息量为0
如果信号的出现概率很小,那么其信息量就大
信息量的计算一般是 -log2(1/P(X)),单位为bit