㈠ 消息中含信息量的大小是由
a -d -c -d(不確定,稍有印象) -b
㈡ 數據資料中所包含信息量的大小是由( )決定的.
信息的首要特徵是真實性。
㈢ 圖像的信息量大小是由哪些特徵決定的
(1)目前,數字圖像處理的信息大多是二維信息,處理信息量很大。
(2)數字圖像處理佔用的頻帶較寬。
(3)數字圖像中各個像素是不獨立的,其相關性大。
(4)由於圖像是三維景物的二維投影,一幅圖象本身不具備復現三維景物的全部幾何信息的能力,很顯然三維景物背後部分信息在二維圖像畫面上是反映不出來的。
(5)數字圖像處理後的圖像一般是給人觀察和評價的,因此受人的因素影響較大。
㈣ 數據資料中含信息量的多少是由消除對事物認識的_______________決定的
數據資料中含信息量的多少是由其消除對事物認識的「不確定性程度「來決定的。------這個是管理信息系統考試的一道題目!
㈤ 信息量的定義是什麼
數據就是信息,
數據的方差顯示了數據的集中程度,數據越是集中則說明數據包含的信息越准確密集,這樣的話,其實就是信息量越小。
信息量就是方差。可見統計學fisher信息量。
㈥ 衡量信息量多少的是
那麼,怎樣度量信息量的大小呢?信息量不能用得到消息的次數來度量,因為千萬個消息可能委復著相同的內容;不能用文字的多少來度量,文字再多,全是廢話,信息量並不會增大;信息量的大小與聲音強弱也無關,比如把收音機開得響些,你得到的信息也不會由此而增加。資訊理論的研究表明,信息量的大小與事件發生的可能性的概率有關。
㈦ 信息量是指什麼
信息量是源於通信領域而逐漸普及成為大眾與媒體頻繁使用的一個詞,將它與一篇科技論文聯系起來,是指在篇幅有限的情況下,論文本身能向讀者提供多少有關該論題的信息。筆者在《Chinese physics Letters》的投稿規范上看到,它是指「要盡可能多地給出有關研究的信息,盡可能少地運用investigate(調查),study(研究), disuss(討論)等詞,並舉例作了進一步解釋,如「The cross section is (6.25± 0.02)就比「The cross section is measured」包含更多的信息量。通俗地講,讀之前或許不知道,或者模糊不消或不確切的知識在讀過該文之後不僅獲得新知識,還消除了模糊不清或不確切之處,就說明這篇文章包含較多的信息量。簡言之,當你讀完一篇文章後獲得的新知識越多,說明它的信息量就越大。顯然,「多點測量」的信息量要比「6點測量」少得多,前者給出的是模糊的、不確切的信息,而後者則是清楚的。確切的信息。
㈧ 信息量的計算
信息量 I=log2(1/p)
其中 p是概率, log2指以二為底的對數。
對於第一問,「不能使用」, 其概率為25%(35度以下)+5%(40度以上)=30%
信息量 I=log2(1/0.3)=1.7
第二問,"能使用", 其概率p=1-0.3=0.7
信息量 I=log2(1/0.7)=0.515
第三問,「因為裝置在冷卻中不能使用」 ,其概率p為5%
信息量 I=log2(1/0.05)=4.322
參見《通信原理》,樊昌信第五版,第八頁。
㈨ 信息量是怎麼計算的
假設我錯過了某年的世界盃比賽,現在要去問一個知道比賽結果的朋友「哪支球隊最終獲得世界盃冠軍」?他要求我猜,猜完會告訴我是對還是錯,但我每猜一次就要給他一塊錢。那麼我需要付給他多少錢才能知道誰是冠軍?我可以把球隊編號,從1到32,然後問「冠軍的球隊在1-16號中嗎?」。假如他告訴我對了,我就問「冠軍的球隊在1-8號中嗎?」。如果他告訴我不對,我就自然就知道冠軍隊在9-16號中。這樣我只需要猜5次就可以知道哪支球隊是冠軍了。所以,「誰是世界盃冠軍」這個問題的答案的信息量只值5塊錢。香農用「比特」(bit)來作為信息量的單位。像上邊「誰是世界盃冠軍」這個問題的答案的信息量是5比特。如果是64支球隊,「誰是世界盃冠軍」這個問題的答案的信息量就是6比特,因為要多猜一次。
對足球了解的朋友看到這有疑問了,他覺得他不需要5次來猜。因為他知道巴西,西班牙,德國等這些強隊奪冠的可能性比日本,韓國等球隊大的多。所以他可以先把強隊分成一組,剩下的其它隊伍一組。然後問冠軍是否在奪冠熱門組里邊。重復這樣的過程,根據奪冠的概率對剩下的候選球隊分組,直至找到冠軍隊,這樣也許三次或四次就猜出結果了。因此,當每支球隊奪冠的可能性(概率)不一樣時,「誰是世界盃冠軍」這個問題的答案的信息量比5比特少。
香農指出,「誰是世界盃冠軍」這個問題的答案的信息量是:
H = -(p1*log(p1) + p2 * log(p2) + ... + p32 * log(32))
其中log是以2為底數的對數,以下本文中的log都是以2為底的對數,下邊不再特別說明。
這就是衡量信息量多少的公式,它的單位是比特。之所以稱為熵是因為它的定義形式和熱力學的熵有很大的相似性。對於一個隨機變數X的信息熵的定義公式為:
H(X)=-∑P(xi)logP(xi)
其中xi是隨機變數X的可能取值。
更多計算信息量的例子可以看這篇文章:信息怎麼衡量多少?