2018-04-23 相互情報量(Mutual information)= 伝達情報量(Transinformation) wikipediaより形式的には,2つの離散確率変数XとYの相互情報量は によって定義される2つの確率変数の相互依存の尺度を表す量.最も典型的な相互情報量の物理単位はビットで,2 を底とする対数が使われることが多いXとYが独立のとき,同時確率は0のため,I(X;Y)=0となるXとY が最も依存していないときに,相互情報量は最小となるYの分布がXの分布と同じである場合に,I(X;Y)は最大値となるXとYが最も依存しているときに,相互情報量は最大となる