1. 世界上每天产生的信息量一个人要花多少时间去才能学懂
一下子,只要认真学习。。。谢谢
2. 百度百科一年的新增信息量大约有多少
据说大约相当于7本《大英网络全书》,这个数字还在不断增加中!!
3. 一位二进制数可以表示多少信息量
信息量的计算方法是:对消息出现概率的倒数取以2为底的对数,所得结果即是信息量。
一位二进制,出现0或1的概率为1/2,所以信息量=log(1/(1/2))(以2为底)=1。
即一位二进制数可以表示1个信息量。
4. 衡量信息量多少的是
那么,怎样度量信息量的大小呢?信息量不能用得到消息的次数来度量,因为千万个消息可能委复着相同的内容;不能用文字的多少来度量,文字再多,全是废话,信息量并不会增大;信息量的大小与声音强弱也无关,比如把收音机开得响些,你得到的信息也不会由此而增加。信息论的研究表明,信息量的大小与事件发生的可能性的概率有关。
5. 信息量的计算
信息量 I=log2(1/p)
其中 p是概率, log2指以二为底的对数。
对于第一问,“不能使用”, 其概率为25%(35度以下)+5%(40度以上)=30%
信息量 I=log2(1/0.3)=1.7
第二问,"能使用", 其概率p=1-0.3=0.7
信息量 I=log2(1/0.7)=0.515
第三问,“因为装置在冷却中不能使用” ,其概率p为5%
信息量 I=log2(1/0.05)=4.322
参见《通信原理》,樊昌信第五版,第八页。
6. 人需要每天接受那么多信息量吗
人需要每天接受那么多信息量吗?当今时代就是网络时代,你每天信息量多,是因为你的人员好,朋友多,在加上工作和其他的事,这才是你的信息量过大,当今社会没有信息是不行得,比如,你要是嫌信息多,你把手机关机,你什么事都不知到,这样你湿得很无辽,你也非常招急,接触事实吧,没有信息是不行的,因为现在世界是为了信息而发展的,没有信息等于是白眼瞎啊。
7. 现今社会一个人每天接收的信息量是多少
发送和接受没有数量限制
但是如果您在短时间内群发大量短信
网络运营商系统会判别为逗发送垃圾短信地暂时将您的手机短信发送功能关闭
需通过人工再次申请开通
至于楼上说的储存短信功能 取决您的手机内存
如果您的手机短信储存已满 将无法正常收取短信 需删除后方可正常收取
8. 信息量是指什么
信息量是源于通信领域而逐渐普及成为大众与媒体频繁使用的一个词,将它与一篇科技论文联系起来,是指在篇幅有限的情况下,论文本身能向读者提供多少有关该论题的信息。笔者在《Chinese physics Letters》的投稿规范上看到,它是指“要尽可能多地给出有关研究的信息,尽可能少地运用investigate(调查),study(研究), disuss(讨论)等词,并举例作了进一步解释,如“The cross section is (6.25± 0.02)就比“The cross section is measured”包含更多的信息量。通俗地讲,读之前或许不知道,或者模糊不消或不确切的知识在读过该文之后不仅获得新知识,还消除了模糊不清或不确切之处,就说明这篇文章包含较多的信息量。简言之,当你读完一篇文章后获得的新知识越多,说明它的信息量就越大。显然,“多点测量”的信息量要比“6点测量”少得多,前者给出的是模糊的、不确切的信息,而后者则是清楚的。确切的信息。
9. 人一生接受多少信息量
接着上面的回答,但是大脑的潜能还没开发出来了。所以储量还是很有限。
10. 信息量是怎么计算的
假设我错过了某年的世界杯比赛,现在要去问一个知道比赛结果的朋友“哪支球队最终获得世界杯冠军”?他要求我猜,猜完会告诉我是对还是错,但我每猜一次就要给他一块钱。那么我需要付给他多少钱才能知道谁是冠军?我可以把球队编号,从1到32,然后问“冠军的球队在1-16号中吗?”。假如他告诉我对了,我就问“冠军的球队在1-8号中吗?”。如果他告诉我不对,我就自然就知道冠军队在9-16号中。这样我只需要猜5次就可以知道哪支球队是冠军了。所以,“谁是世界杯冠军”这个问题的答案的信息量只值5块钱。香农用“比特”(bit)来作为信息量的单位。像上边“谁是世界杯冠军”这个问题的答案的信息量是5比特。如果是64支球队,“谁是世界杯冠军”这个问题的答案的信息量就是6比特,因为要多猜一次。
对足球了解的朋友看到这有疑问了,他觉得他不需要5次来猜。因为他知道巴西,西班牙,德国等这些强队夺冠的可能性比日本,韩国等球队大的多。所以他可以先把强队分成一组,剩下的其它队伍一组。然后问冠军是否在夺冠热门组里边。重复这样的过程,根据夺冠的概率对剩下的候选球队分组,直至找到冠军队,这样也许三次或四次就猜出结果了。因此,当每支球队夺冠的可能性(概率)不一样时,“谁是世界杯冠军”这个问题的答案的信息量比5比特少。
香农指出,“谁是世界杯冠军”这个问题的答案的信息量是:
H = -(p1*log(p1) + p2 * log(p2) + ... + p32 * log(32))
其中log是以2为底数的对数,以下本文中的log都是以2为底的对数,下边不再特别说明。
这就是衡量信息量多少的公式,它的单位是比特。之所以称为熵是因为它的定义形式和热力学的熵有很大的相似性。对于一个随机变量X的信息熵的定义公式为:
H(X)=-∑P(xi)logP(xi)
其中xi是随机变量X的可能取值。
更多计算信息量的例子可以看这篇文章:信息怎么衡量多少?