① 你看到過的信息量最大的一句話是什麼
我看過信息量最大的是全球最短科幻小說第一名。就一句話:當地球上最後一個人獨自坐在房間里的時候,外面響起了敲門聲。
② 一位二進制數可以表示多少信息量
信息量的計算方法是:對消息出現概率的倒數取以2為底的對數,所得結果即是信息量。
一位二進制,出現0或1的概率為1/2,所以信息量=log(1/(1/2))(以2為底)=1。
即一位二進制數可以表示1個信息量。
③ 如何測出一句話中的信息量
信息量是關於事件發生概率的連續函數;
如果兩事件A與B,B是A的必要條件,那麼獲知事件A要發生所對應的信息所含的信息量要大於或等於獲知事件B要發生所對應的信息所含的信息量;
獲知獨立事件將同時發生的信息量應為單獨獲知兩事件發生的信息量之和;
任何信息的信息量都是有界的。
④ 二維碼最大能包含多少信息量
二維碼最大能包含1850個字元或2710個數字或1108個位元組,或500多個漢字。
二維碼是一個多行、連續性、可變長、包含大量數據的符號標識。每個條形碼有3 - 90行,每一行有一個起始部分、數據部分、終止部分。它的字元集包括所有128個字元,可容納多達1850個字元或2710個數字或1108個位元組,或500多個漢字,比普通條碼信息容量約高幾十倍。
信息量大小與二維碼的制式有關
通常意義來講,二維碼的信息量大小與二維碼的制式有一定的關系,不同的制式所存儲的數據量大小有一定的差別。在同一制式中,像素點越多代表存儲的信息量越大,目前二維碼生成網站只提供800×800像素的二維碼生成服務。
另外,二維碼的容量跟二維碼圖形的大小和顏色都有關系的。一般常見大小的二維碼圖像中,雙色單層(如黑白)的一般是數十K的容量,彩色(24色)單層的能夠達到1~2MB的容量。256色三層的大型二維碼,甚至能夠達到1TB的變態容量。
⑤ 信息量什麼意思這個群每天信息量很大,很多,可以這樣用詞嗎可以這樣說嗎
同樣是一句話,有的就表達一個意思
,有的短短一句話能看出四五種信息就是信息量大
信息量大代表的不僅僅是消息多
也代表包含的意思很多
⑥ 衡量信息量多少的是
那麼,怎樣度量信息量的大小呢?信息量不能用得到消息的次數來度量,因為千萬個消息可能委復著相同的內容;不能用文字的多少來度量,文字再多,全是廢話,信息量並不會增大;信息量的大小與聲音強弱也無關,比如把收音機開得響些,你得到的信息也不會由此而增加。資訊理論的研究表明,信息量的大小與事件發生的可能性的概率有關。
⑦ 一句話的信息量能大到什麼程度
我覺得首先看你面對的人是誰,如果那人說的話你都得分析的話,那麼這個人的一句話就有很大的意思。例如你的上司,你的女朋友之類的。但是如果對面是你的好朋友,鐵子,朋友之間無話可說的,那麼每句話信息量可能都不大,因為摯友之間沒什麼大不了的事情。所以,你得考慮考慮對面是誰
之後我的建議就是也別太猜忌別人的話,有的時候反而會使你自己難堪,做人老實很不錯,如果變得逢迎人意,那豈不是糟糕。所以,建議大多話聽表面,不用瞎想,反而使自己累得難堪。
⑧ 信息量超大的一句話,感受一下。誰能看得懂
一對百合一對基,滑稽
⑨ 吹牛的人說的話到底有多少真實信息
我覺得吹牛的人說話應該也是有真實信息的,因為他們只是擴大了自己所說的事情,所以都是有真實信息的,但是真實信息的多少是由他們來控制的,每一句話真實信息多少也都是不一樣的。
⑩ 信息量是怎麼計算的
假設我錯過了某年的世界盃比賽,現在要去問一個知道比賽結果的朋友「哪支球隊最終獲得世界盃冠軍」?他要求我猜,猜完會告訴我是對還是錯,但我每猜一次就要給他一塊錢。那麼我需要付給他多少錢才能知道誰是冠軍?我可以把球隊編號,從1到32,然後問「冠軍的球隊在1-16號中嗎?」。假如他告訴我對了,我就問「冠軍的球隊在1-8號中嗎?」。如果他告訴我不對,我就自然就知道冠軍隊在9-16號中。這樣我只需要猜5次就可以知道哪支球隊是冠軍了。所以,「誰是世界盃冠軍」這個問題的答案的信息量只值5塊錢。香農用「比特」(bit)來作為信息量的單位。像上邊「誰是世界盃冠軍」這個問題的答案的信息量是5比特。如果是64支球隊,「誰是世界盃冠軍」這個問題的答案的信息量就是6比特,因為要多猜一次。
對足球了解的朋友看到這有疑問了,他覺得他不需要5次來猜。因為他知道巴西,西班牙,德國等這些強隊奪冠的可能性比日本,韓國等球隊大的多。所以他可以先把強隊分成一組,剩下的其它隊伍一組。然後問冠軍是否在奪冠熱門組里邊。重復這樣的過程,根據奪冠的概率對剩下的候選球隊分組,直至找到冠軍隊,這樣也許三次或四次就猜出結果了。因此,當每支球隊奪冠的可能性(概率)不一樣時,「誰是世界盃冠軍」這個問題的答案的信息量比5比特少。
香農指出,「誰是世界盃冠軍」這個問題的答案的信息量是:
H = -(p1*log(p1) + p2 * log(p2) + ... + p32 * log(32))
其中log是以2為底數的對數,以下本文中的log都是以2為底的對數,下邊不再特別說明。
這就是衡量信息量多少的公式,它的單位是比特。之所以稱為熵是因為它的定義形式和熱力學的熵有很大的相似性。對於一個隨機變數X的信息熵的定義公式為:
H(X)=-∑P(xi)logP(xi)
其中xi是隨機變數X的可能取值。
更多計算信息量的例子可以看這篇文章:信息怎麼衡量多少?