① 你看到过的信息量最大的一句话是什么
我看过信息量最大的是全球最短科幻小说第一名。就一句话:当地球上最后一个人独自坐在房间里的时候,外面响起了敲门声。
② 一位二进制数可以表示多少信息量
信息量的计算方法是:对消息出现概率的倒数取以2为底的对数,所得结果即是信息量。
一位二进制,出现0或1的概率为1/2,所以信息量=log(1/(1/2))(以2为底)=1。
即一位二进制数可以表示1个信息量。
③ 如何测出一句话中的信息量
信息量是关于事件发生概率的连续函数;
如果两事件A与B,B是A的必要条件,那么获知事件A要发生所对应的信息所含的信息量要大于或等于获知事件B要发生所对应的信息所含的信息量;
获知独立事件将同时发生的信息量应为单独获知两事件发生的信息量之和;
任何信息的信息量都是有界的。
④ 二维码最大能包含多少信息量
二维码最大能包含1850个字符或2710个数字或1108个字节,或500多个汉字。
二维码是一个多行、连续性、可变长、包含大量数据的符号标识。每个条形码有3 - 90行,每一行有一个起始部分、数据部分、终止部分。它的字符集包括所有128个字符,可容纳多达1850个字符或2710个数字或1108个字节,或500多个汉字,比普通条码信息容量约高几十倍。
信息量大小与二维码的制式有关
通常意义来讲,二维码的信息量大小与二维码的制式有一定的关系,不同的制式所存储的数据量大小有一定的差别。在同一制式中,像素点越多代表存储的信息量越大,目前二维码生成网站只提供800×800像素的二维码生成服务。
另外,二维码的容量跟二维码图形的大小和颜色都有关系的。一般常见大小的二维码图像中,双色单层(如黑白)的一般是数十K的容量,彩色(24色)单层的能够达到1~2MB的容量。256色三层的大型二维码,甚至能够达到1TB的变态容量。
⑤ 信息量什么意思这个群每天信息量很大,很多,可以这样用词吗可以这样说吗
同样是一句话,有的就表达一个意思
,有的短短一句话能看出四五种信息就是信息量大
信息量大代表的不仅仅是消息多
也代表包含的意思很多
⑥ 衡量信息量多少的是
那么,怎样度量信息量的大小呢?信息量不能用得到消息的次数来度量,因为千万个消息可能委复着相同的内容;不能用文字的多少来度量,文字再多,全是废话,信息量并不会增大;信息量的大小与声音强弱也无关,比如把收音机开得响些,你得到的信息也不会由此而增加。信息论的研究表明,信息量的大小与事件发生的可能性的概率有关。
⑦ 一句话的信息量能大到什么程度
我觉得首先看你面对的人是谁,如果那人说的话你都得分析的话,那么这个人的一句话就有很大的意思。例如你的上司,你的女朋友之类的。但是如果对面是你的好朋友,铁子,朋友之间无话可说的,那么每句话信息量可能都不大,因为挚友之间没什么大不了的事情。所以,你得考虑考虑对面是谁
之后我的建议就是也别太猜忌别人的话,有的时候反而会使你自己难堪,做人老实很不错,如果变得逢迎人意,那岂不是糟糕。所以,建议大多话听表面,不用瞎想,反而使自己累得难堪。
⑧ 信息量超大的一句话,感受一下。谁能看得懂
一对百合一对基,滑稽
⑨ 吹牛的人说的话到底有多少真实信息
我觉得吹牛的人说话应该也是有真实信息的,因为他们只是扩大了自己所说的事情,所以都是有真实信息的,但是真实信息的多少是由他们来控制的,每一句话真实信息多少也都是不一样的。
⑩ 信息量是怎么计算的
假设我错过了某年的世界杯比赛,现在要去问一个知道比赛结果的朋友“哪支球队最终获得世界杯冠军”?他要求我猜,猜完会告诉我是对还是错,但我每猜一次就要给他一块钱。那么我需要付给他多少钱才能知道谁是冠军?我可以把球队编号,从1到32,然后问“冠军的球队在1-16号中吗?”。假如他告诉我对了,我就问“冠军的球队在1-8号中吗?”。如果他告诉我不对,我就自然就知道冠军队在9-16号中。这样我只需要猜5次就可以知道哪支球队是冠军了。所以,“谁是世界杯冠军”这个问题的答案的信息量只值5块钱。香农用“比特”(bit)来作为信息量的单位。像上边“谁是世界杯冠军”这个问题的答案的信息量是5比特。如果是64支球队,“谁是世界杯冠军”这个问题的答案的信息量就是6比特,因为要多猜一次。
对足球了解的朋友看到这有疑问了,他觉得他不需要5次来猜。因为他知道巴西,西班牙,德国等这些强队夺冠的可能性比日本,韩国等球队大的多。所以他可以先把强队分成一组,剩下的其它队伍一组。然后问冠军是否在夺冠热门组里边。重复这样的过程,根据夺冠的概率对剩下的候选球队分组,直至找到冠军队,这样也许三次或四次就猜出结果了。因此,当每支球队夺冠的可能性(概率)不一样时,“谁是世界杯冠军”这个问题的答案的信息量比5比特少。
香农指出,“谁是世界杯冠军”这个问题的答案的信息量是:
H = -(p1*log(p1) + p2 * log(p2) + ... + p32 * log(32))
其中log是以2为底数的对数,以下本文中的log都是以2为底的对数,下边不再特别说明。
这就是衡量信息量多少的公式,它的单位是比特。之所以称为熵是因为它的定义形式和热力学的熵有很大的相似性。对于一个随机变量X的信息熵的定义公式为:
H(X)=-∑P(xi)logP(xi)
其中xi是随机变量X的可能取值。
更多计算信息量的例子可以看这篇文章:信息怎么衡量多少?