信息熵和称小球问题

先简单说一下关于信息熵的东西:

信息熵是信息多少的量度,一个事件所携带的信息量跟它出现的概率反相关,直观上来说,一个事件出现的越频繁则每次该事件出现时携带的信息就少,反之如果一个事件非常少见,则该事件出现的时候携带的信息量就非常高。

具体公式是:

$$I= -log(p)$$ 也就是

$$I=log(p/1)$$

其中p为此事件的概率

其期望为:

$$E(I) = -\sum plog(p)$$

当log是以2为底的时候 I的单位为 bit,当log以e为底时,I的单位为nat,在信息论中他们对应有具体的应用。

我们可以用信息熵的理论来解决经常遇到的脑筋急转弯-称小球问题:

给定N个小球,和一台天平,如果知道其中有一个小球偏重,但是不知道是具体哪一个,现在想用天平去把这个小球找出来,最少需要用多少次天平?

(1)每一次使用天平,可以得到三种可能,左偏,右偏,平衡,而且这三种可能是概率相等的,所以每一次使用天平的结果都携带log3的信息量。

(2)要从N个小球中找到那个不一样,可以有2N种概率相同的可能,每个小球都可能偏重,这个事件所携带的信息量是 logN。

所以可以得到 最少可以使用 logN/log3次天平 就可以凑够信息量,指出哪一个是重的。

给定N个小球,和一台天平,如果知道其中有一个小球和别的不一样,但是不知道是具体哪一个,现在想用天平去把这个小球找出来,最少需要用多少次天平?

(1)每一次使用天平,可以得到三种可能,左偏,右偏,平衡,而且这三种可能是概率相等的,所以每一次使用天平的结果都携带log3的信息量。

(2)要从N个小球中找到那个不一样,可以有2N种概率相同的可能,每个小球都可能偏轻或者偏重,这个事件所携带的信息量是 log2N。

所以可以得到 最少可以使用 log2N/log3次天平 就可以凑够信息量,指出哪一个是不一样的。

信息熵和称小球问题,布布扣,bubuko.com

时间: 2024-10-21 11:49:49

信息熵和称小球问题的相关文章

概率分布之间的距离度量以及python实现

1. 欧氏距离(Euclidean Distance)       欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式.(1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:(2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:(3)两个n维向量a(x11,x12,-,x1n)与 b(x21,x22,-,x2n)间的欧氏距离:(4)也可以用表示成向量运算的形式: python中的实现: 方法一: import numpy as np x=

小球称重问题~通过三次称重找出十二个小球质量不一样的小球,并判断小球轻重

小球称重问题 一.问题描述 十二个小球进行称重,只能称三次,找出不一样的小球,并判断异球的轻重. 二.问题分析 将12个小球分成三组,将小球分别标号为1到12,分组情况如下: A组小球:1,2,3,4: B组小球:5,6,7,8: C组小球:9,10,11,12 情况分析:每个小球都有两种可能,一共会有24种判断结果. 三.算法分析 第一次,先将1-4号放在左边,5-8号放在右边. 1.如果右重则坏球在1-8号. 第二次将2-4号拿掉,将6-8号从右边移到左边,把9-11号放 在右边.就是说,把

从信息熵角度去理解问题

信息是个很抽象的概念.人们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少.比如一本五十万字的中文书到底有多少信息量.直到1948年,香农提出了“信息熵”的概念,才解决了对信息的量化度量问题.三国真人娱乐城 一条信息的信息量大小和它的不确定性有直接的关系.比如说,我们要搞清楚一件非常非常不确定的事,或是我们一无所知的事情,就需要了解大量的信息.相反,如果我们对某件事已经有了较多的了解,我们不需要太多的信息就能把它搞清楚.所以,从这个角度,我们可以认为,信息量的度量就等于不确定性的多少.

根据问题选择N分法再看看称球问题

前面用猜数字游戏说明了二分的思想,这里再看一个常见的思维题:皇家娱乐城 12个小球,其中有一个是坏球.有一架天平.需要你用最少的称次数来确定哪个小球是坏的并且它到底是轻还是重. 这个问题是一道流传已久的智力题.网络上也有很多讲解,还有泛化到N个球的情况下的严格证明.也有零星的一些地方提到从信息论的角度来看待最优解法.本来我一直认为这道题目除了试错之外没有其它高妙的思路了,只能一个个方法试,并尽量从结果中寻找信息,然后看看哪种方案最少. 然而,实际上它的确有其它的思路,一个更本质的思路,而且根本用

天平称球问题

笔试题目碰到了天平称球的问题,之前遇到没有细细的查阅资料,再次笔试的时候就吃亏了,这里记录下结论: 现有N个小球,其中有一个坏球不知比标准球轻还是重.我们令H={log3(2N)}.          1)要保证在N个球中找出坏球并知道其轻重,至少需要称H次. 假设N≠2,我们有 2)如果N<(3H-1)/2,那么称H次就足够了: 3)如果N=(3H-1)/2,那么称H次足以保证找到坏球,但不足以保证知道坏球比标准球轻还是重: 4)如果N=(3H-1)/2,而且还另有一个标准球,那么称H次足以保

关于试验(测量),事件,随机变量,取值,概率分布,信息,信息熵的理解

用实体-联系的观点理解概率: 每个变量都要与一个事件关联,变量依赖于事件的存在而存在,两个实体是一对一的联系: 每个事件都要与一个试验关联,事件也依赖于试验的存在而存在,两个实体是多对一的联系: 设变量的取值集合为S,如果在S上定义了一张映射表,这张映射表满足概率分布的性质,那么就称这个变量是一个定义了概率分布的随机变量: 随机变量和概率分布是完全独立的两个实体,它们独立存在不依赖于对方.但是随机变量可以服从一个概率分布,两个实体是多对一的联系: 任何实体都可以是信息: 如果给定一个实体E,如果

10个小球用天平找出重量不同的那个

上周被人出了一道算法题目,题目的内容是:有10个小球,外观一样,其中1个小球和其他9个小球重量不一样,请使用天平以最少的次数找出这个重量不一样的小球. 解题思路:其实这是一个很典型使用分治算法的例子,由于不知道这个特别的小球是比其他球重还是轻,所以我们不能简单的使用二分法去求解,所以我选择3为模. 解题步骤: 1.将10个球分成4个数组,分别是A[a1, a2, a3],B[b1, b2, b3], C[c1, c2, c3], D[d1]:假设这个重量不一样的球为n,其他普通球的任意一个是m:

3月机器学习在线班第六课笔记--信息熵与最大熵模型

原文:https://www.zybuluo.com/frank-shaw/note/108124 信息熵 信息是个很抽象的概念.人们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少.比如一本五十万字的中文书到底有多少信息量.直到1948年,香农提出了“信息熵”的概念,才解决了对信息的量化度量问题.(百度百科) 香农定义的信息熵的计算公式如下: H(X)=−∑p(xi)log(p(xi))    (i=1,2,…,n) 其中X 表示的是随机变量,随机变量的取值为(x1,x2,…,xn)

1449 砝码称重

1449 砝码称重 题目来源: CodeForces 基准时间限制:1 秒 空间限制:131072 KB 分值: 40 难度:4级算法题 现在有好多种砝码,他们的重量是 w0,w1,w2,...  每种各一个.问用这些砝码能不能表示一个重量为m的东西. 样例解释:可以将重物和3放到一个托盘中,9和1放到另外一个托盘中. Input 单组测试数据. 第一行有两个整数w,m (2 ≤ w ≤ 10^9, 1 ≤ m ≤ 10^9). Output 如果能,输出YES,否则输出NO. Input示例