
【计】 average conditional information content; conditional entropy
条件熵(Conditional Entropy)是信息论中衡量随机变量不确定性的重要指标,定义为在已知另一个随机变量条件下,原变量的剩余信息量。其数学表达式为: $$ H(Y|X) = -sum_{x in mathcal{X}, y in mathcal{Y}} p(x,y) log_2 p(y|x) $$ 式中$X$和$Y$为联合分布的离散随机变量,$p(x,y)$表示联合概率,$p(y|x)$为条件概率。
这一概念由香农在1948年奠基论文《通信的数学理论》中首次提出,揭示了信息传递中条件依赖关系的本质特征。在通信工程领域,条件熵可量化信道噪声导致的信息损失程度;在机器学习中,它被用于特征选择算法,通过计算特征与标签的条件熵评估特征重要性。
根据Cover和Thomas合著的《信息论基础》,条件熵具有非负性且满足链式法则:$H(X,Y) = H(X) + H(Y|X)$。该性质在数据压缩算法设计中被广泛应用,如LZ77编码利用前后字符的条件熵关系提升压缩效率。
参考文献
Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal
Cover, T. M., Thomas, J. A. (2006). Elements of Information Theory. Wiley-Interscience
条件熵(Conditional Entropy)是信息论中衡量不确定性的重要概念,用于描述在已知一个随机变量取值的前提下,另一个随机变量剩余的不确定性。以下是详细解释:
条件熵 ( H(Y|X) ) 表示已知随机变量 ( X ) 的取值时,随机变量 ( Y ) 的平均不确定性。其数学定义为: $$ H(Y|X) = -sum{x in X} sum{y in Y} p(x,y) log p(y|x) $$ 其中:
互信息 ( I(X;Y) ) 表示 ( X ) 和 ( Y ) 共享的信息量,可通过熵与条件熵计算: $$ I(X;Y) = H(Y) - H(Y|X) $$ 这表明互信息是已知 ( X ) 后 ( Y ) 不确定性的减少量。
假设 ( X ) 表示天气(晴/雨),( Y ) 表示是否带伞(是/否):
通过条件熵,可以量化变量间的依赖关系,为信息处理提供理论支持。
保存者并唇币值波动会计成分类型撤消修订垂直入射错合盐德斯莫杜尔R调查底阀放大字体辅助塔干板整流器混合模拟逻辑语言基本动向理想化的罗班氏鞘螺旋板热交换器氯苯甲脒麦芽内分泌机能亢进的内收足全波天线泉华生活环时钟输入通讯环外包层微级中断