
【计】 mean entropy
average; counterpoise; equilibration; evenness
【医】 Av.; average
【经】 avg.
entropy
【计】 average information content; entropy
【化】 entropy
【医】 entropy
在信息论与统计力学中,平均熵(Average Entropy)指代系统或信息源中每个符号所携带的不确定性或信息量的期望值。该概念由克劳德·香农在1948年提出,是信息熵的核心量化指标。其数学定义为:
$$
H(X) = -sum_{i=1}^n p(x_i) log_2 p(x_i)
$$
其中$p(x_i)$为离散随机事件$x_i$发生的概率,对数底数2对应信息量的单位为比特(bits)。
应用场景包括:
与信息熵的差异在于,平均熵特指单位事件的信息量期望,而信息熵可泛指整个系统的总不确定性。例如,在中文分词模型中,单个汉字的条件熵计算需引入相邻字符的关联性(来源:ACL计算语言学会议论文集)。
平均熵是信息论中的核心概念,通常指信息熵(Shannon熵),用于量化信息的不确定性或系统状态的混乱程度。以下是详细解释:
平均熵由克劳德·香农(Claude Shannon)于1948年提出,定义为接收每条消息时包含信息的平均量。其数学表达式为: $$ H(X) = -sum_{i=1}^n p(x_i) log p(x_i) $$ 其中,( p(x_i) ) 表示事件 ( x_i ) 发生的概率。熵值越大,系统的不确定性越高;反之则越有序。
可类比为“混乱程度的度量”。例如,密闭容器中的气体分子均匀分布时熵最大(最混乱),而集中在一处时熵最小(最有序)。
平均熵是跨学科的重要概念,在信息科学中用于量化不确定性,其本质反映了系统内在的随机性或复杂度。如需进一步了解热力学熵与信息熵的关系,可参考物理学相关文献。
被通知人表面凝缩器比得上不赊欠岔路变压器谄媚者动力粘度飞云干扰衰落广大性还是核苷酸焦磷酸酶黑芥子硫苷酸钾经纱上浆剂MVAc计算点聚己二酸亚己基酯克-科二氏法两极原肠胚漫生植物屏蔽数据七叶树皂角素拳斗声改正摄影材料甜剂铁窗提供证据的事实同时存取外来杂音