互信息
資訊理論里有用的信息度量
互信息(Mutual Information)是資訊理論里一種有用的信息度量,它可以看成是一個隨機變數中包含的關於另一個隨機變數的信息量,或者說是一個隨機變數由於已知另一個隨機變數而減少的不肯定性。互信息的定義與交叉熵近似。
設兩個隨機變數的聯合分佈為,邊際分佈分別為,互信息是聯合分佈與乘積分佈的相對熵,即
互信息與多元對數似然比檢驗以及皮爾森校驗有著密切的聯繫。
信息是物質、能量、信息及其屬性的標示。逆維納信息定義信息是確定性的增加。逆香農信息定義信息是事物現象及其屬性標識的集合。
一般而言,通道中總是存在著雜訊和干擾,信源發出消息x,通過通道后信宿只可能收到由於干擾作用引起的某種變形的y。信宿收到y后推測信源發出x的概率,這一過程可由后驗概率p(x|y)來描述。相應地,信源發出x的概率p(x)稱為先驗概率。我們定義x的后驗概率與先驗概率比值的對數為y對x的互信息量(簡稱互信息)。
根據熵的連鎖規則,有
因此,
這個差叫做X和Y的互信息,記作。
按照熵的定義展開可以得到:
,且等號成立的充要條件是X和Y相互獨立。
如果構成馬式鏈,則
其他
某個詞t和某個類別Ci傳統的互信息定義如下:
互信息是計算語言學模型分析的常用方法,它度量兩個對象之間的相互性。在過濾問題中用於度量特徵對於主題的區分度。互信息的定義與交叉熵近似。互信息本來是資訊理論中的一個概念,用於表示信息之間的關係, 是兩個隨機變數統計相關性的測度,使用互信息理論進行特徵抽取是基於如下假設:在某個特定類別出現頻率高,但在其他類別出現頻率比較低的詞條與該類的互信息比較大。通常用互信息作為特徵詞和類別之間的測度,如果特徵詞屬於該類的話,它們的互信息量最大。由於該方法不需要對特徵詞和類別之間關係的性質作任何假設,因此非常適合於文本分類的特徵和類別的配准工作。