「分散共分散行列」の版間の差分

削除された内容 追加された内容
Autem (会話 | 投稿記録)
ちょい訳すすめ
Autem (会話 | 投稿記録)
また、ちょい訳すすめ
63行目:
<math>\Sigma</math>が、分散共分散行列と呼ばれるのは、対角要素は分散だからである。
 
==名称の問題==
==Conflicting nomenclatures and notations==
この行列の名前の呼び名には、いくつかの異なった流儀がある。統計学者の一部は、[[William Feller]]にならって、この行列が1 次元の分散の自然な拡張であることから、この行列を確率変数のベクトル<math>X</math>の'''分散'''と呼ぶ。また、この行列がベクトル''X''のスカラー要素の共分散であることから、この行列を'''共分散行列'''と呼ぶ流儀もある。すなわち、
Nomenclatures differ. Some statisticians, following the probabilist [[William Feller]], call this matrix the '''variance''' of the random vector <math>X</math>, because it is the natural generalization to higher dimensions of the 1-dimensional variance. Others call it the '''covariance matrix''', because it is the matrix of covariances between the scalar components of the vector <math>X</math>. Thus
:<math>
\operatorname{var}(\textbf{X})
88行目:
</math>
 
The <math>var</math> notation is found in による記法は、William Feller's two-volume book の2巻の本''An Introduction to Probability Theory and Its Applications'', but both forms are quite standard and there is no ambiguity between them.に見ることができるが、どちらの形式もかなり標準化されていて、その間に曖昧性はない。
 
== 性質 ==
109行目:
Applied to one vector, the covariance matrix maps a linear combination ('''c''') of the random variables ('''X''') onto a vector of covariances with those variables: <math>\mathbf c^\top\Sigma = \operatorname{cov}(\mathbf c^\top\mathbf X,\mathbf X)</math>. Treated as a 2-form, it yields the covariance between the two linear combinations: <math>\mathbf d^\top\Sigma\mathbf c=\operatorname{cov}(\mathbf d^\top\mathbf X,\mathbf c^\top\mathbf X)</math>. The variance of a linear combination is then <math>\mathbf c^\top\Sigma\mathbf c</math>, its covariance with itself.
 
==どのような行列が分散共分散行列となれるか==
==Which matrices are covariance matrices==
 
すぐ上で使った次の等式と、
From the identity just above
 
:<math>\operatorname{var}(\mathbf{a^\top}\mathbf{X}) = \mathbf{a^\top} \operatorname{var}(\mathbf{X}) \mathbf{a}\,</math>
 
実数値を取る確率変数の分散は非負であるということから、すぐに[[半正定値]]行列だけが分散共分散行列になることができるということがわかる。さらに、任意の半正定値行列は分散共分散行列とみなすことができる。これを示すには、次のようにする。まず、''M''を''p''&times;''p''の半正定値対象行列とする。有限次元の[[スペクトル理論]]より、''M''は半正定値対象な二次の根''M''<sup>1/2</sup>を持つ。<math>\mathbf{X}</math>を任意の''p''&times;1の確率変数の列ベクトルとし、その分散共分散行列が''p''&times;''p''の恒等行列だとする。すると
and the fact that the variance of any real-valued random variable is nonnegative, it follows immediately that only a nonnegative-definite matrix can be a covariance matrix. The converse question is whether ''every'' nonnegative-definite symmetric matrix is a covariance matrix. The answer is "yes". To see this, suppose ''M'' is a ''p''&times;''p'' nonnegative-definite symmetric matrix. From the finite-dimensional case of the [[spectral theorem]], it follows that ''M'' has a nonnegative symmetric square root, which let us call ''M''<sup>1/2</sup>. Let <math>\mathbf{X}</math> be any ''p''&times;1 column vector-valued random variable whose covariance matrix is the ''p''&times;''p'' identity matrix. Then
 
:<math>\operatorname{var}(M^{1/2}\mathbf{X}) = M^{1/2} (\operatorname{var}(\mathbf{X})) M^{1/2} = M.\,</math>
144行目:
where <math>Z^{*}</math> denotes the conjugate transpose, which is applicable to the scalar case since the transpose of a scalar is still a scalar.
 
==Estimation推定==
[[多次元正規分布]]の分散共分散行列の最尤推定量の導出は、驚くほど巧妙である。
The derivation of the maximum-likelihood estimator of the covariance matrix of a [[multivariate normal distribution]] is perhaps surprisingly subtle.
See [[:en:estimation of covariance matrices]].を参照。
 
==確率密度関数==
==Probability density function==
 
<math>n</math>個の相関のある確率変数の確率密度関数は、
The probability density function of a set of <math>n</math> correlated random variables, the joint probability function of which is a ''n''-order Gaussian vector, is given on the [[Maximum likelihood]] page.