多変量正規分布
確率論と統計学において、多変量正規分布(たへんりょうせいきぶんぷ、英: multivariate normal distribution)または多次元正規分布、あるいは結合正規分布(英: joint normal distribution)、もしくはこれらの語で「正規分布」を「ガウス分布」に換えたもの、は1次元の正規分布を高次元へと一般化した確率分布である。ベクトル値確率変数が k 変量正規分布に従うとは、それらの k 個の成分(実数値確率変数)の任意の(実係数)線型結合が1変量正規分布に従うことを言う。この分布の重要性は主として、多変数の場合の中心極限定理の分布収束先として現れることによる。多変量正規分布はしばしば、少なくとも近似的に、互いに相関を持ち、平均ベクトルの周辺に値が集中するような確率変数の組を記述するのに用いられる。
累積分布関数 | |
母数 |
μ ∈ Rk — 位置 Σ ∈ Rk × k — 分散共分散(半正定値行列) |
---|---|
台 | x ∈ μ + span(Σ) ⊆ Rk |
確率密度関数 |
存在するのは Σ が正定値行列であるときに限る。 |
期待値 | μ |
最頻値 | μ |
分散 | Σ |
エントロピー | |
モーメント母関数 | |
特性関数 |
記法とパラメータ
編集k 次元ベクトル値確率変数 が多変量正規分布に従っていることを、次のように記す:
もしくは X が k 次元であることを明示して
と書くこともある。
ここで k 次元平均ベクトルは
であり、 分散共分散行列は
(ただし )である。分散共分散行列の逆行列は精度行列(precision matrix)と呼ばれ、 と記す。
定義
編集標準正規確率変数ベクトル
編集実数値確率変数から成るベクトル が標準正規確率変数ベクトル(standard normal random vector)であるとは、それらの成分 が独立であって、いずれも平均 0、分散 1 の正規分布に従っている(全ての に対し、 )ことを言う[1]:p. 454。
中心化正規確率変数ベクトル
編集実数値確率変数から成るベクトル が中心化正規確率変数ベクトル(centered normal random vector)であるとは、 実成分定行列 が存在して、 が と同一の確率分布に従うことを言う。ここで は 次元標準正規確率変数ベクトルである[1]:p. 454。
正規確率変数ベクトル
編集確率変数ベクトル が正規確率変数ベクトルであるとは、 成分の標準正規確率変数ベクトル 、 次元平均ベクトル 、および 行列 があって、 と書けることを言う[2]:p. 454[1]:p. 455。
形式的に表すと:
|
このとき共分散行列は となる。
共分散行列が非正則である(退化している)場合、対応する多変量正規分布は(連続であるような)確率密度関数を持たない。このような事態は統計学ではしばしば起こり、例えば、最小二乗法における残差ベクトルがそうした分布に従うことがある。
また、ここでの成分 の集まりは一般的には独立な確率変数ではないことに注意する。これらは独立な正規確率変数の集まり に行列 を作用させたものである。
同値な定義
編集上記の定義で用いた条件は、以下のいずれの条件とも同値である。ベクトル値確率変数 はこれらのいずれかが成り立つとき、多変量正規分布に従うと言う。
- 任意の線型結合 ( を定ベクトルとして )が(1変量)正規分布に従う。ただし分散が 0 の正規分布とは、その平均の位置に確率 1 の確率質量を持つような確率分布を意味することとする。
- k 成分ベクトル と 対称半正定値行列 が存在して、 の特性関数が
- と書ける。
球面正規分布(spherical normal distribution)とは、どんな直交座標系で表示しても確率変数ベクトルの各成分が独立となるような分布、と特徴付けられる[3][4]。
性質
編集確率密度関数
編集非退化の場合
編集多変量正規分布が非退化であるとは、共分散行列 が正定値であることである。この場合、分布は次の形の確率密度関数を持つ[5]。
|
ここで は実 k 次元列ベクトルで、 は の行列式である。 が 行列(つまり単一の実数)である場合、この式は1変量正規分布の確率密度関数に帰着する。
複素正規分布の場合はこれとはわずかに違った形のものになる。
k+1 次元空間内の任意の「等高線」、つまり確率密度関数の値が等しくなるような点の集合は、楕円またはその高次元対応物となる。よって多変量正規分布は楕円分布の特別な場合である。
記述統計量 はマハラノビス距離として知られ、試験ベクトル と平均ベクトル との一種の距離を表す。 の場合、これは標準得点の絶対値に帰着する。
2変量の場合
編集2次元で非退化の場合(k = rank(Σ) = 2)、ベクトル [X Y]′(右肩のダッシュは転置を表す)の確率密度関数は、
となる。ここで ρ は X と Y の相関係数であり、 かつ である。このとき、
2次元のときは、多変量正規分布であるための同値な条件として挙げた最初の方は、やや緩められる:
2変数の場合の等高線を x,y-平面にプロットすると楕円になる。相関係数 ρ が大きくなっていくとき、楕円は次の直線:
の方向に向かって押しつぶされていく。この背景として、この式の sgn(ρ) ("sgn" は符号関数)を ρ に取り換えたものは、X の値が与えられたときの Y の最良線形不偏予測量(best linear unbiased prediction)になっているという性質がある[7]。
結合分布の正規性
編集正規分布と独立性
編集確率変数 と が正規分布に従い、独立であるならば、これらの結合分布は結合正規分布である。つまり、対 は2変量正規分布に従う。しかしながら、多変量正規分布に従う確率変数ベクトルの相異なる2成分は独立であるとは限らない。それらが独立であるのは無相関( )の場合に限られる。
正規分布に従う確率変数の対は、必ずしも2変量正規分布には従わない
編集2個の確率変数 と がいずれも正規分布に従っているとしても、それらの対 は必ずしも2変量正規分布には従わない。次のように簡単な例(反例)が構成できる。
- X は標準正規分布(平均 0、分散 1)に従う。
- ある定数 があって、 ならば 、 ならば
3変数以上の場合も同様に反例が構成できる。一般に、こうした確率変数の和によって混合分布モデルが作られる。
相関と独立性
編集一般に、2個の確率変数が無相関であっても独立であるとは限らない。しかし、確率変数ベクトルが多変量正規分布に従っている場合、その2個以上の成分が互いに無相関であれば、それらは独立である。特に、これらが組ごとに独立であれば、独立である。
しかしながら、すぐ上で指摘した例からわかるように、2個の確率変数が正規分布に従い、かつ無相関であるからといって、それらが独立であるとは限らない(X と Y の相関係数が 0 となるよう定数 c を選べばよい)。
周辺分布
編集多変量正規分布に従う確率変数ベクトルから、その中のいくつかの成分を抜き出した確率変数の組が従う周辺分布を得るには、単に平均ベクトル、分散共分散行列から無関係な成分を除けばよい。これが成り立つことは、多変量正規分布の定義と線形代数によって証明できる[8]。
例
編集X = [X1, X2, X3] が多変量正規分布に従うとし、平均ベクトルを μ = [μ1, μ2, μ3]、分散共分散行列を Σ とする。 このとき X′ = [X1, X3] の周辺分布は再び多変量正規分布であり、その平均ベクトルは μ′ = [μ1, μ3]、分散共分散行列は
である。
アフィン変換
編集で Y = c + BX がそのアフィン変換であるとき(c は 定ベクトル、B は 定行列)、Y も多変量正規分布に従い、平均ベクトルは c + Bμ、分散共分散行列は BΣBT である(つまり )。
特に、成分 Xi たちの任意の部分集合が従う周辺分布は再び多変量正規分布になる。例えば、部分集合 (X1, X2, X4)T を直接抜き出してくるには、行列
を使えばよい。
別の系として、多変量正規分布に従う X と定ベクトル b のドット積をとった Z = b · X は、1変量正規分布に従う( )。
と考えればよい。Σ の正定値性(半正定値性)から、ドット積をとった確率変数の分散は正(非負)になる。
X のアフィン変換 2X は、X と同一の分布に従う2個の独立な確率変数の和とは別物である。
母数の推定
編集確率密度関数が
である多変量正規分布に従う大きさ n の標本から、共分散行列を推定することを考える。この場合の最尤推定量は
であり、これは単純に標本共分散行列を計算したものである。ただし不偏推定量ではなく、期待値は
となる。よって
とすれば不偏推定量になる。多変量正規分布の母数の推定において、フィッシャー情報行列は閉じた式で書け、例えばクラメール・ラオの限界の算出に用いられる。詳細はフィッシャー情報量を参照。
多変量正規分布からのサンプリング
編集平均ベクトル μ、分散共分散行列 Σ の N 次元正規分布に従う乱数ベクトルを生成する方法として、以下に述べるような手法が広く用いられている[9]。
- A AT = Σ となるような実行列 A をどれか1つ見つける。Σ が正定値の場合はコレスキー分解が典型的に用いられるが、(平方根演算を避けた)拡張法は Σ が半正定値であれば必ず通用し、いずれの方法でも適当な行列 A が得られる。別の方法として、Σ のスペクトル分解 Σ = UΛU−1 を用いて A = UΛ½ としてもよい。前者は計算論的に率直な手法だが、分布の基となる確率変数の並べ替え(Σ の行・列交換)によって行列 A は異なったものに変化する。一方後者は、このような変換をしても A の成分が並べ直されるだけである。理論上はどちらの手法を使っても行列が同程度に良く求まるが、計算時間には違いが出る。
- z = (z1, …, zN)T を、標準正規分布に従う N 個の独立な確率変数から成るベクトルとする(このような乱数は例えばボックス=ミュラー法によって得られる)。
- x を μ + Az とする。アフィン変換の性質より、このベクトルは所望の分布に従っている。
関連項目
編集脚注
編集- ^ a b c Lapidoth, Amos (2009). A Foundation in Digital Communication. Cambridge University Press. ISBN 978-0-521-19395-5
- ^ Gut, Allan (2009). An Intermediate Course in Probability. Springer. ISBN 978-1-441-90161-3
- ^ Kac, M. (1939). “On a characterization of the normal distribution”. American Journal of Mathematics 61 (3): 726–728. doi:10.2307/2371328. JSTOR 2371328.
- ^ Sinz, Fabian; Gerwinn, Sebastian; Bethge, Matthias (2009). “Characterization of the p-generalized normal distribution”. Journal of Multivariate Analysis 100 (5): 817–820. doi:10.1016/j.jmva.2008.07.006.
- ^ UIUC, Lecture 21. The Multivariate Normal Distribution, 21.5:"Finding the Density".
- ^ Hamedani, G. G.; Tata, M. N. (1975). “On the determination of the bivariate normal distribution from distributions of linear combinations of the variables”. The American Mathematical Monthly 82 (9): 913–915. doi:10.2307/2318494. JSTOR 2318494.
- ^ Wyatt, John. “Linear least mean-squared error estimation”. Lecture notes course on applied probability. 23 January 2012閲覧。
- ^ 周辺分布についての正式な証明は http://fourier.eng.hmc.edu/e161/lectures/gaussianprocess/node7.html 参照。
- ^ Gentle, J.E. (2009). Computational Statistics. Statistics and Computing. New York: Springer. pp. 315–316. doi:10.1007/978-0-387-98144-4. ISBN 978-0-387-98143-7
参考文献
編集- Rencher, A.C. (1995). Methods of Multivariate Analysis. New York: Wiley
- Tong, Y. L. (1990). The multivariate normal distribution. Springer Series in Statistics. New York: Springer-Verlag. doi:10.1007/978-1-4613-9655-0. ISBN 978-1-4613-9657-4