熵的含义

指的是多种成分均匀分布的情况,如果成分分布越均匀,则熵越高,相反则熵越低

物理学

比如某个物体由多个事物组成,如果各事物所占质量比重均匀,则质量熵就高

概率学

比如掷色子有6种结果,如果各结果的概率是一样的,则概率熵就高

自然语言

比如一个term和多个term都有搭配在一起出现的记录,如果各term出现的次数都比较接近,则这个term的搭配熵就高

时间: 2024-10-13 13:32:12

熵的含义的相关文章

[Machine Learning & Algorithm]CAML机器学习系列2:深入浅出ML之Entropy-Based家族

声明:本博客整理自博友@zhouyong计算广告与机器学习-技术共享平台,尊重原创,欢迎感兴趣的博友查看原文. 写在前面 记得在<Pattern Recognition And Machine Learning>一书中的开头有讲到:“概率论.决策论.信息论3个重要工具贯穿着<PRML>整本书,虽然看起来令人生畏…”.确实如此,其实这3大理论在机器学习的每一种技法中,或多或少都会出现其身影(不局限在概率模型). <PRML>书中原话:”This chapter also

深度学习及神经网络学习总结

ps:我是在高一的时候第一次脑海中接触神经网络这个概念......,注意只是接触,一直扔到现在 1. 简介 神经网络和深度学习是由Michael Nielsen所写,其特色是:兼顾理论和实战,是一本供初学者深入理解Deep Learning的好书. 2. 感知器与sigmoid神经元 2.1 感知器(Perceptrons) 感知器工作原理:接收一系列二进制输入,经过特定的规则计算之后,输出一个简单的二进制. 计算规则:通过引入权重(weights)表示每个输入对于输出的重要性,则有 记w?x=

关于信息论中熵的定义与含义:

信息熵: 1. 热力学中的热熵是表示分子状态混乱程度的物理量.香农用信息熵的概念来描述信源的不确定度. 2. :两个独立符号所产生的不确定性应等于各自不确定性之和 3. 在信源中,考虑的不是某一单个符号发生的不确定性,而是要考虑这个信源所有可能发生情况的平均不确定性. 对于当个符号,它的概率为p时,用这个公式衡量它的不确定性: 而信源的平均不确定性,称为信息熵,用下面的公式表示: 注意:1. 当式中的对数的底为2时,信息熵的单位为比特.它底数为其它时,它对应的单位也不一样. 2. 信息熵是信息论

信息增益与熵

在信息论中,熵被用来衡量一个随机变量出现的期望值.变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大,熵是整个系统的平均消息量. 信息熵是信息论中用于度量信息量的一个概念.一个系统越是有序,信息熵就越低:反之,一个系统越是混乱,信息熵就越高.所以,信息熵也可以说是系统有序化程度的一个度量. 他的计算公式是:H(x)=E[I(xi)]=E[ log(1/p(xi)) ]=-∑p(xi)log(p(xi)) (i=1,2,..n).自信息,又称信息本体,用来衡量单一事件发生时所包含的信

熵的来源及相关定义

熵是信息论与编码理论的中心概念.至于条件熵以及互信息都是某种意义上的熵.对于熵的理解是最根本的.几乎所有的信息论教材无一列外的提到熵是刻画信息的多少或者不确定性的.这当然也没有什么问题,但是却立即让人如堕五里雾中,不知熵到底是什么意义.只要稍微钻一下牛角尖,刻画信息或者不确定性为什么非要用这种形式不可呢?在这些书上就难以找到好的答案了.实际上这些定义可以直接从对数的定义得到很清晰的解释.而不需要绕一个圈子从什么信息量.不确定性的角度.刻画信息量或者不确定性可以作为某种解说,但不是最根本最清晰的解

【数据压缩】压缩率-图像熵-保真度

转载请注明出处:http://blog.csdn.net/luoshixian099/article/details/50351562 勿在浮沙筑高台 关于图像压缩上的几个名词解释: 1.平均比特数:相应一张图像上每一个像素所採用的平均比特数.L(r_k)为灰度级r_k所使用的比特数,p(r_k)表示相应灰度级的概率: 2.压缩率&相对数据冗余:若b和b'是两个不同的比特数.代表着同样信息:即是同一张图像,採用不同的比特数总数去表示: 3.图像的熵:一个具有概率P(E)的随机事件E可被说成是包括

FFmpeg的H.264解码器源代码简单分析:熵解码(Entropy Decoding)部分

本文分析FFmpeg的H.264解码器的熵解码(Entropy Decoding)部分的源代码.FFmpeg的H.264解码器调用decode_slice()函数完成了解码工作.这些解码工作可以大体上分为3个步骤:熵解码,宏块解码以及环路滤波.本文分析这3个步骤中的第1个步骤. 函数调用关系图 熵解码(Entropy Decoding)部分的源代码在整个H.264解码器中的位置如下图所示. 单击查看更清晰的图片 熵解码(Entropy Decoding)部分的源代码的调用关系如下图所示. 单击查

熵增定律

克劳修斯引入了熵的概念来描述这种不可逆过程. 在热力学中,熵是系统的状态函数,它的物理表达式为: S =∫dQ/T或ds = dQ/T 其中,S表示熵,Q表示热量,T表示温度. 该表达式的物理含义是:一个系统的熵等于该系统在一定过程中所吸收(或耗散)的热量除以它的绝对温度.可以证明,只要有热量从系统内的高温物体流向低温物体,系统的熵就会增加: S =∫dQ1/T1+∫dQ2/T2 假设dQ1是高温物体的热增量,T1是其绝对温度: dQ2是低温物体的热增量,T2是其绝对温度, 则:dQ1 = -d

谈谈交叉熵损失函数

一.交叉熵损失函数形式 现在给出三种交叉熵损失函数的形式,来思考下分别表示的的什么含义. --式子1 --式子2 --式子3 解释下符号,m为样本的个数,C为类别个数.上面三个式子都可以作为神经网络的损失函数作为训练,那么区别是什么? ■1>式子1,用于那些类别之间互斥(如:一张图片中只能保护猫或者狗的其中一个)的单任务分类中.连接的 softmax层之后的概率分布. tensorflow中的函数为:  tf.nn.softmax_cross_entropy_with_logits ■2>式子