
【计】 joint information content
unite; ally; connect; link; associate; band; joint; combination; federation
linkage; union; alliance
【计】 uniting
【化】 union
【医】 association; coadunation; coadunition; symphysis; syndesis; union
【经】 associate; coalition; combination; consolidate; consortium; fusion
union
【计】 amount of information; information content; quantity of information
在信息论中,联合信息量(Joint Information Content)是指两个或多个随机事件同时发生时提供的信息量度量。它量化了事件组合的不确定性减少程度,是信息论中互信息(Mutual Information)和熵(Entropy)概念的基础。
联合信息量 ( I(x,y) ) 定义为两个离散随机事件 ( X=x ) 和 ( Y=y ) 同时发生的自信息量,数学表达式为: $$ I(x,y) = -log_2 P(x,y) $$ 其中 ( P(x,y) ) 表示事件 ( x ) 和 ( y ) 的联合概率。该值越大,表明事件组合的发生越不可预测,提供的信息量越多。
与自信息的关系
自信息 ( I(x) = -log P(x) ) 描述单一事件的信息量,而联合信息量扩展至多个事件的关联性。例如,若事件 ( x ) 和 ( y ) 独立,则 ( I(x,y) = I(x) + I(y) ),否则 ( I(x,y) < I(x) + I(y) ) 表明事件间存在冗余。
与互信息的关系
互信息 ( I(X;Y) ) 通过联合信息量与边缘熵的差值定义: $$ I(X;Y) = sum_{x,y} P(x,y) left[ log_2 frac{P(x,y)}{P(x)P(y)} right] $$ 反映了两个变量间的统计依赖性。
在信道编码中,联合信息量用于分析符号序列的传输效率。例如,在噪声信道中,接收端通过联合概率解码信号序列以降低误码率。
通过计算特征与目标变量的联合信息量,评估特征间的相关性,优化模型输入(如决策树的分裂准则)。
无损压缩算法(如Huffman编码)利用联合概率分布减少冗余信息的编码长度。
(奠基性论文,首次提出信息量度量框架)
(标准教材,第2章详解联合熵与信息量)
(专业组织官网,定义联合信息量的工程应用)
注:公式推导需基于概率公理体系,实际计算中常采用蒙特卡洛模拟或直方图估计联合概率 ( P(x,y) )。
联合信息量是信息论中的基础概念,用于描述两个事件共同发生时所包含的信息总量。其核心含义和性质如下:
联合信息量表示两个事件$x$和$y$同时发生时提供的信息量。其数学定义为: $$ I(x,y) = -log P(x,y) $$ 其中$P(x,y)$是事件$x$和$y$的联合概率。
联合熵$H(X,Y)$是联合信息量的期望值,表示两个随机变量整体的平均不确定性: $$ H(X,Y) = mathbb{E}[I(x,y)] = -sum_{x,y} P(x,y) log P(x,y) $$ 这体现了联合信息量在概率分布层面的推广。
互信息$I(X;Y)$是联合信息量中“共有部分”的度量,计算公式为: $$ I(X;Y) = H(X) + H(Y) - H(X,Y) $$ 而联合信息量关注的是整体信息量。
如需更深入的理论推导或实例分析,可进一步查阅信息论教材或相关研究论文。
苯基联苯基┭二唑比较和打印不彻底的单调函数度量表固定资产周转率骨髓细胞分类像黄嘌呤试验汇兑平衡帐户基础体温局部反射克拉希-伯格刚性试验刻蚀印刷电路类中风性的李-明二氏法临终的遗嘱落第马尼拉矛形镰带绦虫摩擦联轴器逆理圆线虫旁视缓冲区羟基吡啶前缘涡倾向角扰动生产额四元聚合物脱掉违反合同