ランド指数[1](ランドしすう、: Rand index)またはランド測度(ランドそくど、: Rand measure)は、統計、特にデータ・クラスタリングにおいて、2つのクラスタリングの類似性を図る尺度である。William M. Randにちなんで名付けられた。要素の偶然のグループ化を調整した形で定義したものが調整ランド指数である。数学的には、ランド指数は accuracy に関連しているが、クラスラベルを使用しない場合にも適用できる。

K平均法(左)および平均値シフト法(右)によるデータセットのクラスタリングの例。この2つのクラスタリングについて計算された調整ランド指数は

ランド指数 編集

定義 編集

  個の要素からなる所与の集合 および   の分割 および  を考え、以下のように定義する。

  •   は、  の要素の組み合わせのうち、  で同じサブセット、  で同じサブセットにあるものの数。
  •   は、  の要素の組み合わせのうち、  で異なるサブセット、  で異なるサブセットにあるものの数。
  •   は、  の要素の組み合わせのうち、  で同じサブセット、  で異なるサブセットにあるものの数。
  •   は、  の要素の組み合わせのうち、  で異なるサブセット、  で同じサブセットにあるものの数。

ランド指数  [1][2]

 

直感的には、     の間の合意の数、    の間の意見の相違の数と考えることができる 。

分母はペアの総数なので、ランド指数はペアの総数に対する合意の発生頻度、つまり無作為に選ばれたペアにおいて    が合意する確率を表している。

 は、  として計算される。


同様に、次式のように、ランド指数 RI をアルゴリズムによる正しい判断の割合を示す指標として捉えることもできる。

 
ここで、  は真陽性の数、  は真陰性の数、   は偽陽性の数、  は偽陰性の数を表す。

性質 編集

ランド指数は0〜1の値を持ち、0は2つのデータ・クラスタリングがどのペアでも一致しないことを、1はデータクラスタリングが全く同じであることを示す。

数学的には、a、b、c、dは次のように定義される。

  •  ,  
  •  ,  
  •  ,  
  •  ,  

(任意の に対して)

分類精度との関係 編集

ランドインデックスは、  の要素のペアを対象とした二項分類精度を通して見ることもできる。 2つのクラスラベルは「     の同じサブセットにある」 と「     の異なるサブセットにある」である。

その設定では、   は同じサブセットに属すると正しくラベル付けされたペアの数(真陽性)、  は異なるサブセットに属すると正しくラベル付けされたペアの数(真陰性)である。

調整ランド指数 編集

調整ランド指数は、ランド指数を偶然性に基づいて補正したものである[1][2][3]。このような偶然性の補正は、ランダムに指定されたクラスタリング間のすべてのペアワイズ比較の類似度の期待値を使用して、ベースラインを確立します。従来、ランド指数は、クラスタリングのための順列モデル(クラスタリング内のクラスターの数とサイズは固定されており、すべてのランダムクラスタリングは、固定されたクラスター間で要素をシャッフルすることによって生成される)を用いて補正されていた。

しかし、順列モデルの前提は頻繁に破られる。多くのクラスタリングのシナリオでは、クラスターの数またはクラスターのサイズ分布が大幅に異なる。例えば、K平均法では、クラスターの数は実務者によって固定されているが、それらのクラスターのサイズはデータから推測されるものとする。調整ランド指数のバリエーションは、ランダムなクラスタリングのさまざまなモデルを説明する[4]

ランド指数は0から1の間の値しか得られないが、調整ランド指数は、当てはまりが期待値よりも悪い場合、負の値を取り得る[5]

分割表 編集

  個の要素からなる集合   に対し、2つのグループ化または分割(クラスタリングなど)   を考える。

   の重なりは、次のような分割表   にまとめることができる。ここで、  のそれぞれは、   が共有するオブジェクトの数を表す 。すなわち、 

 

定義 編集

順列モデルを使用したオリジナルの調整ランド指数は

 

ここで、  は分割表の値を表す。

関連項目 編集

  • 単純一致係数

脚注 編集

  1. ^ a b c W. M. Rand (1971). “Objective criteria for the evaluation of clustering methods”. Journal of the American Statistical Association (American Statistical Association) 66 (336): 846–850. doi:10.2307/2284239. JSTOR 2284239. 
  2. ^ a b Lawrence Hubert and Phipps Arabie (1985). “Comparing partitions”. Journal of Classification 2 (1): 193–218. doi:10.1007/BF01908075. 
  3. ^ Nguyen Xuan Vinh, Julien Epps and James Bailey (2009). "Information Theoretic Measures for Clustering Comparison: Is a Correction for Chance Necessary?" (PDF). ICML '09: Proceedings of the 26th Annual International Conference on Machine Learning. ACM. pp. 1073–1080.PDF.
  4. ^ Alexander J Gates and Yong-Yeol Ahn (2017). “The Impact of Random Models on Clustering Similarity”. Journal of Machine Learning Research 18: 1-28. http://www.jmlr.org/papers/volume18/17-039/17-039.pdf. PDF.
  5. ^ Silke Wagner (2007年1月12日). “Comparing Clusterings - An Overview” (pdf). 2021年10月5日閲覧。

外部リンク 編集