A. 什麼是平均自信息量,平均條件自信息量以及平均互信息量
平均自信息是針對信源編碼而言,而平均互信息是針對信道編碼而言,定義自信息(「資訊理論」中的一個定義)的數學期望為信源的平均自信息量(也即「信息熵」)。平均互信息代表接收到輸出符號後平均每個符號獲得的關於信源符號X的信息量。
平均自信息給的是發送一個信息所代表的信息量,而平均互信息所代表的是在接收到了符號後發送端符號所代表的信息量。
(1)平均信息量和信息量有什麼區別擴展閱讀:
資訊理論中的互信息,一般而言,信道中總是存在著雜訊和干擾,信源發出消息x,通過信道後信宿只可能收到由於干擾作用引起的某種變形的y。
信宿收到y後推測信源發出x的概率,這一過程可由後驗概率p(x|y)來描述。相應地,信源發出x的概率p(x)稱為先驗概率。我們定義x的後驗概率與先驗概率比值的對數為y對x的互信息量(簡稱互信息)
互信息是計算語言學模型分析的常用方法,它度量兩個對象之間的相互性。在過濾問題中用於度量特徵對於主題的區分度。互信息的定義與交叉熵近似。
互信息本來是資訊理論中的一個概念,用於表示信息之間的關系, 是兩個隨機變數統計相關性的測度,使用互信息理論進行特徵抽取是基於如下假設:在某個特定類別出現頻率高,但在其他類別出現頻率比較低的詞條與該類的互信息比較大。
通常用互信息作為特徵詞和類別之間的測度,如果特徵詞屬於該類的話,它們的互信息量最大。由於該方法不需要對特徵詞和類別之間關系的性質作任何假設,因此非常適合於文本分類的特徵和類別的配准工作。
B. 信息量的定義是什麼
數據就是信息,
數據的方差顯示了數據的集中程度,數據越是集中則說明數據包含的信息越准確密集,這樣的話,其實就是信息量越小。
信息量就是方差。可見統計學fisher信息量。