「相互情報量」の版間の差分

削除された内容 追加された内容
TXiKiBoT (会話 | 投稿記録)
m ロボットによる 追加: zh:互信息
m 特徴抽出→特徴選択、仮リンク3件
41行目:
離散の場合、''H''(''X''|''X'') = 0 であるから、''H''(''X'') = ''I''(''X'';''X'') となる。従って ''I''(''X'';''X'') ≥ ''I''(''X'';''Y'') であり、ある確率変数は他のどんな確率変数よりも自分自身についての情報を多くもたらすという基本原理が定式化されている。
 
相互情報量は、2つの確率変数 ''X'' と ''Y'' の[[{{仮リンク|周辺分布]]|en|Marginal distribution}}の積 ''p''(''x'') × ''p''(''y'') と[[同時分布]] ''p''(''x'',''y'') の[[カルバック・ライブラー情報量]]で表すこともできる。
 
:<math> I(X;Y) = D_{\mathrm{KL}}(p(x,y)\|p(x)p(y)). </math>
62行目:
* 入力確率分布が最大化されたときの相互情報量は[[通信路容量]]と等価である。
* [[多重配列アラインメント]]による[[リボ核酸|RNA]]の二次構造予測
* [[機械学習]]における[[特徴抽出選択]]や特徴変換の尺度として相互情報量が使われてきた。
* 相互情報量は[[コーパス言語学]]における[[連語]]の計算における重み付け関数として使われることが多い。
* 相互情報量は[[医用画像処理]]における画像の位置合わせに使われる。ある画像と別の画像の[[座標]]を合わせるために、両者の相互情報量が最大となるように位置合わせを行う。
* [[時系列]]解析における[[{{仮リンク|位相同期]]|en|Phase synchronization}}の検出。
* [[情報量最大化]][[独立成分分析]]アルゴリズムでも利用されている。
* [[{{仮リンク|ターケンスの定理]]|en|Takens' theorem}}では平均相互情報量を使って埋め込み遅延パラメータを求める。
 
== 参考文献 ==