モデルの推定方法-EM algorithmの部分についてのまとめ。(サイトからのつぎはぎ)
最尤推定値を数値計算で求める代表的な方法
1.ニュートン・ラプソン法
2.Fisherのスコア法
3.EM algorithm
とあるが、Zの存在のために、これが簡単に解けず、EMアルゴリズムを使う(1や2では無理?)。モデルが混合分布でない場合は、このサイトで示しているように、反復なしで解がもとまる。
wikiでは、
1/ Expectation step (E step): Calculate the expected value of the log likelihood function, with respect to the conditional distribution of given under the current estimate of the parameters :
Q(θ, θold) = Σ p(Z|X, θold) ln p(X, Z|θ)
2/ Maximization step (M step): Find the parameter that maximizes this quantity
一般的にZとは、観測できている確率変数Xと区別される、観測できてない確率変数(XとZは対等)。とくに混合分布では、あるデータがどの分布に属するかという情報(ここではとりあえずこの意味に限る)。この場合、zは各xに与えられるK次元ベクトル(Kを分布の数)で、データxがどのガウス分布から生成されたかを表す。属する分布番号のみ1、他は0。
例1.2 次元の正規分布が 6 つ重なった正規混合分布を例に考えよう.この確率分布からデータが得られているとする.この場合,出力されるデータのみからはどの正規分布によって出力されたかが分らない.すなわち,どの正規分布から出力されたかという情報は観測できない.この「どの正規分布から発生したか」という情報が隠れ変数となる.正規混合分布の場合は隠れている確率変数は離散的な確率変数である.
例2.今、何カ国かの男性の身長データのサンプルがN個混在してあります。ただし、N個のデータはすべて、どの国の男性の身長データなのか分かっていません(不完全データ)。このとき、EMアルゴリズムを用いて、「何カ国のデータが混在しているのか※1」と、「各国の身長の平均値と分散※2」を同時に求めたいのですが、・・・(省略)
パターン認識と機会学習(下) Pattern recognition and machine learning
図解 ベイズ統計学
- 説明
対数尤度と最大対数尤度(◎ 対数尤度の説明がスマート。pdf)
混合ガウス分布Sage(PRMLに沿って)
EMアルゴリズムによる混合分布のパラメーター推定の解析計算&実装例 from 「Rによるモンテカルロ法入門」(リンクが良い。pythonで実装。ヒストグラム)
ある確率変数 X = {Y , Z} があり,その一部 Y のみが観測でき,残り Z (=潜在変数。下に説明)は観測できない状況を考える.観測データ {y1, y2, . . ., yT } が得られたときに,確率モデル p(x; θ) = p(y, z; θ)のパラメタ θ を推定したいとする(取り扱っている分布が、混合ガウス分布であればθはμ,Σ,πの3つ)。パラメータは、Xの分布からして、最もよさげなもの、というふに考える(最尤法)。p(y; θ) =∫p(y, z; θ)dz
最尤推定値を数値計算で求める代表的な方法
1.ニュートン・ラプソン法
2.Fisherのスコア法
3.EM algorithm
とあるが、Zの存在のために、これが簡単に解けず、EMアルゴリズムを使う(1や2では無理?)。モデルが混合分布でない場合は、このサイトで示しているように、反復なしで解がもとまる。
ステップ0.尤度関数をつくる
最初に、現象を式で表す必要がある。
観測された現象の起こる確率、イコール、観測されたデータについての尤度関数Lをつくる。
Given a statistical model consisting of a set of observed data, a set of unobserved latent data or missing values , and a vector of unknown parameters , along with a likelihood function , the maximum likelihood estimate (MLE) of the unknown parameters is determined by the marginal likelihood of the observed data
The EM algorithm seeks to find the MLE of the marginal likelihood by iteratively applying the following two steps:
ステップ1.E step
Eステップでは、完全データの対数尤度関数ln p(X, Z|θ)の期待値を計算する。 最初の試行ではθに初期値を与える必要がある。また、この期待値を計算するために、潜在変数の事後分布p(Z|X, θold)を用いる。
対数尤度関数の期待値、という概念が分かりにくいので、追加説明。
確率論において、確率変数の期待値とは確率と確率変数を掛けた総和を取ったものである(高校数学)。ここでは、確率変数がln p(X, Z|θ)であり、その確率変数が出る確率が、p(Z|X, θold)となる。wikiでは、
1/ Expectation step (E step): Calculate the expected value of the log likelihood function, with respect to the conditional distribution of given under the current estimate of the parameters :
となっているが、
この表現よりもPRML(equation 9.30, p156)の方が分かりやすい。つまり、
ステップ2.M step
Mステップでは、E ステップで求まった尤度の期待値を最大化するようなパラメータを求める。 M ステップで求まったパラメータは、次の E ステップで使われる潜在変数の分布を決定するために用いられる。
具体的には、θで偏微分した式イコール0となる等式を解く。
2/ Maximization step (M step): Find the parameter that maximizes this quantity
*不完全データ(または隠れ変数、潜在変数)
通常Zで表す。一般的にZとは、観測できている確率変数Xと区別される、観測できてない確率変数(XとZは対等)。とくに混合分布では、あるデータがどの分布に属するかという情報(ここではとりあえずこの意味に限る)。この場合、zは各xに与えられるK次元ベクトル(Kを分布の数)で、データxがどのガウス分布から生成されたかを表す。属する分布番号のみ1、他は0。
例1.2 次元の正規分布が 6 つ重なった正規混合分布を例に考えよう.この確率分布からデータが得られているとする.この場合,出力されるデータのみからはどの正規分布によって出力されたかが分らない.すなわち,どの正規分布から出力されたかという情報は観測できない.この「どの正規分布から発生したか」という情報が隠れ変数となる.正規混合分布の場合は隠れている確率変数は離散的な確率変数である.
例2.今、何カ国かの男性の身長データのサンプルがN個混在してあります。ただし、N個のデータはすべて、どの国の男性の身長データなのか分かっていません(不完全データ)。このとき、EMアルゴリズムを用いて、「何カ国のデータが混在しているのか※1」と、「各国の身長の平均値と分散※2」を同時に求めたいのですが、・・・(省略)
- 参考本(つぎはぎ元)
パターン認識と機会学習(下) Pattern recognition and machine learning
図解 ベイズ統計学
- 参考サイト(つぎはぎ元)
- 説明
対数尤度と最大対数尤度(◎ 対数尤度の説明がスマート。pdf)
最尤推定値を数値計算で求める代表的な方法(あまり丁寧ではない。数式。pdf)
隠れ状態最尤推定と反復解法(◎丁寧な数学的説明、直感的イメージ。pdf)
wikipedia (english) (上の英語の部分)
wikipedia (japanese)
- シンプルな分布の例(M stepが単純)
隠れ状態最尤推定と反復解法(◎丁寧な数学的説明、直感的イメージ。pdf)
wikipedia (english) (上の英語の部分)
wikipedia (japanese)
- シンプルな分布の例(M stepが単純)
- コード付き例
混合正規分布でy=ax+uのモデルの場合の最尤法混合ガウス分布Sage(PRMLに沿って)
『計算統計学の方法 』読書ノート;EMアルゴリズムの練習問題(入門編)(Zは潜在変数ではなく、欠損値なのでシンプル。実際的な数式。)
混合ガウスモデルとEM(PRMLに沿って。解説が丁寧)EMアルゴリズムによる混合分布のパラメーター推定の解析計算&実装例 from 「Rによるモンテカルロ法入門」(リンクが良い。pythonで実装。ヒストグラム)
- 数学
- その他
何カ国かの男性の身長データ(質問)
混合分布問題(混合分布推定のレビュー)
No comments:
Post a Comment