
【計】 average conditional information content; conditional entropy
條件熵(Conditional Entropy)是信息論中衡量隨機變量不确定性的重要指标,定義為在已知另一個隨機變量條件下,原變量的剩餘信息量。其數學表達式為: $$ H(Y|X) = -sum_{x in mathcal{X}, y in mathcal{Y}} p(x,y) log_2 p(y|x) $$ 式中$X$和$Y$為聯合分布的離散隨機變量,$p(x,y)$表示聯合概率,$p(y|x)$為條件概率。
這一概念由香農在1948年奠基論文《通信的數學理論》中首次提出,揭示了信息傳遞中條件依賴關系的本質特征。在通信工程領域,條件熵可量化信道噪聲導緻的信息損失程度;在機器學習中,它被用于特征選擇算法,通過計算特征與标籤的條件熵評估特征重要性。
根據Cover和Thomas合著的《信息論基礎》,條件熵具有非負性且滿足鍊式法則:$H(X,Y) = H(X) + H(Y|X)$。該性質在數據壓縮算法設計中被廣泛應用,如LZ77編碼利用前後字符的條件熵關系提升壓縮效率。
參考文獻
Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal
Cover, T. M., Thomas, J. A. (2006). Elements of Information Theory. Wiley-Interscience
條件熵(Conditional Entropy)是信息論中衡量不确定性的重要概念,用于描述在已知一個隨機變量取值的前提下,另一個隨機變量剩餘的不确定性。以下是詳細解釋:
條件熵 ( H(Y|X) ) 表示已知隨機變量 ( X ) 的取值時,隨機變量 ( Y ) 的平均不确定性。其數學定義為: $$ H(Y|X) = -sum{x in X} sum{y in Y} p(x,y) log p(y|x) $$ 其中:
互信息 ( I(X;Y) ) 表示 ( X ) 和 ( Y ) 共享的信息量,可通過熵與條件熵計算: $$ I(X;Y) = H(Y) - H(Y|X) $$ 這表明互信息是已知 ( X ) 後 ( Y ) 不确定性的減少量。
假設 ( X ) 表示天氣(晴/雨),( Y ) 表示是否帶傘(是/否):
通過條件熵,可以量化變量間的依賴關系,為信息處理提供理論支持。
保留項齒形傳動帶磁泡系統代筆遺囑彈響髋電溫度記錄器鳳分音符號尴尬的局面汞合金調制器工業色譜滾雪球後讓角堅挺的可償還的股份勞特氏窦連續流動法禮儀規定袂康定模式算符納皮爾氏醛試驗念珠菌性舌炎佩帶平行外彙率傾向的生産潛力實際與标準制造費用比較表售主盈餘夙屯紮