⑴ 信息量是怎麼計算的
假設我錯過了某年的世界盃比賽,現在要去問一個知道比賽結果的朋友「哪支球隊最終獲得世界盃冠軍」?他要求我猜,猜完會告訴我是對還是錯,但我每猜一次就要給他一塊錢。那麼我需要付給他多少錢才能知道誰是冠軍?我可以把球隊編號,從1到32,然後問「冠軍的球隊在1-16號中嗎?」。假如他告訴我對了,我就問「冠軍的球隊在1-8號中嗎?」。如果他告訴我不對,我就自然就知道冠軍隊在9-16號中。這樣我只需要猜5次就可以知道哪支球隊是冠軍了。所以,「誰是世界盃冠軍」這個問題的答案的信息量只值5塊錢。香農用「比特」(bit)來作為信息量的單位。像上邊「誰是世界盃冠軍」這個問題的答案的信息量是5比特。如果是64支球隊,「誰是世界盃冠軍」這個問題的答案的信息量就是6比特,因為要多猜一次。
對足球了解的朋友看到這有疑問了,他覺得他不需要5次來猜。因為他知道巴西,西班牙,德國等這些強隊奪冠的可能性比日本,韓國等球隊大的多。所以他可以先把強隊分成一組,剩下的其它隊伍一組。然後問冠軍是否在奪冠熱門組里邊。重復這樣的過程,根據奪冠的概率對剩下的候選球隊分組,直至找到冠軍隊,這樣也許三次或四次就猜出結果了。因此,當每支球隊奪冠的可能性(概率)不一樣時,「誰是世界盃冠軍」這個問題的答案的信息量比5比特少。
香農指出,「誰是世界盃冠軍」這個問題的答案的信息量是:
H = -(p1*log(p1) + p2 * log(p2) + ... + p32 * log(32))
其中log是以2為底數的對數,以下本文中的log都是以2為底的對數,下邊不再特別說明。
這就是衡量信息量多少的公式,它的單位是比特。之所以稱為熵是因為它的定義形式和熱力學的熵有很大的相似性。對於一個隨機變數X的信息熵的定義公式為:
H(X)=-∑P(xi)logP(xi)
其中xi是隨機變數X的可能取值。
更多計算信息量的例子可以看這篇文章:信息怎麼衡量多少?
⑵ 信息量的計算方法
資訊理論創始人C.E.Shannon,1938年首次使用比特(bit)概念:1(bit)= 。它相當於對二個可能結局所作的一次選擇量。資訊理論採用對隨機分布概率取對數的辦法,解決了不定度的度量問題。
m個對象集合中的第i個對象,按n個觀控指標測度的狀態集合的
全信息量TI= 。
從試驗後的結局得知試驗前的不定度的減少,就是申農界定的信息量,即
自由信息量FI=-∑pi ,(i=1,2,…,n)。
式中pi是與隨機變數xi對應的觀控權重,它趨近映射其實際狀態的分布概率。由其內在分布構成引起的在試驗前的不定度的減少,稱為先驗信息或謂約束信息量。風險是潛藏在隨機變數尚未變之前的內在結構能(即形成該種結構的諸多作用中還在繼續起作用的有效能量)中的。可以顯示、映射這種作用的是
約束信息量BI=TI-FI。
研究表明,m個觀控對象、按n個觀控指標進行規范化控制的比較收益優選序,與其自由信息量FI之優選序趨近一致;而且各觀控對象「愈自由,風險愈小」;約束信息量BI就是映射其風險的本徵性測度,即風險熵。
把信息描述為信息熵,是狀態量,其存在是絕對的;信息量是熵增,是過程量,是與信息傳播行為有關的量,其存在是相對的。在考慮到系統性、統計性的基礎上,認為:信息量是因具體信源和具體信宿范圍決定的,描述信息潛在可能流動價值的統計量。本說法符合熵增原理所要求的條件:一、「具體信源和信宿范圍」構成孤立系統,信息量是系統行為而不僅僅是信源或信宿的單獨行為。二、界定了信息量是統計量。此種表述還說明,信息量並不依賴具體的傳播行為而存在,是對「具體信源和具體信宿」的某信息潛在可能流動價值的評價,而不是針對已經實現了的信息流動的。由此,信息量實現了信息的度量。
⑶ 計算機中信息存儲最小的單位是
是「位」才對。
二進制數系統中,每個0或1就是一個位(bit),位是內存的最小單位。一個二進制數字序列,在計算機中作為一個數字單元,一般為8位二進制數,如一個ASCII碼就是一個位元組,此類單位的換算為:
1千吉位元組(KGB,KiloGigaByte)=1024吉位元組。
1吉位元組(GB,GigaByte) =1024兆位元組。
換算
信息存儲量是度量存儲器存放程序和數據的數量。其主要度量單位是位元組,1個位元組(Byte)等於8位(b)二進制。位(bit,Binary Digits):存放一位二進制數,即0或1,為最小的存儲單位,8個二進制位為一個位元組單位。一個英文字母(不分大小寫)佔一個位元組的空間,一個中文漢字占兩個位元組的空間。英文標點佔一個位元組,中文標點占兩個位元組。
⑷ 信息量的計算
信息量 I=log2(1/p)
其中 p是概率, log2指以二為底的對數。
對於第一問,「不能使用」, 其概率為25%(35度以下)+5%(40度以上)=30%
信息量 I=log2(1/0.3)=1.7
第二問,"能使用", 其概率p=1-0.3=0.7
信息量 I=log2(1/0.7)=0.515
第三問,「因為裝置在冷卻中不能使用」 ,其概率p為5%
信息量 I=log2(1/0.05)=4.322
參見《通信原理》,樊昌信第五版,第八頁。