See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
最大事後確率 - Wikipedia

最大事後確率

出典: フリー百科事典『ウィキペディア(Wikipedia)』

最大事後確率: Maximum a posterioriMAP推定は、統計学において、実測データに基づいて未知の量の点推定を行う手法である。ロナルド・フィッシャー最尤法 (ML) に密接に関連するが、推定したい量の事前分布を利用して最適化された結果を得る。したがってMAP推定は、ML推定の正規化と見ることができる。

目次

[編集] 概要

x の観測に基づいて、未知の母集団パラメータ θ を推定したいとする。x の標本分布を f とすると、母集団パラメータを θ としたときの x の確率は f(x | θ) となる。すると

\theta \mapsto f(x | \theta) \!

という関数は尤度関数であり、

\hat{\theta}_{\mathrm{ML}}(x) = \arg\max_{\theta} f(x | \theta) \!

θ の最尤推定である。

ここで、θ の事前分布を g とする。すると、θベイズ推定における確率変数として扱える。θ事後確率は次のようになる。

\theta \mapsto \frac{f(x | \theta) \, g(\theta)}{\displaystyle\int_{\Theta} f(x | \theta') \, g(\theta') \, d\theta'} \!

ここで gθ の密度関数、Θg の定義域である。これはベイズの定理の直接的な応用である。

最大事後確率推定の手法では、次に θ をこの確率変数の事後分布の最頻値として推定する。

\hat{\theta}_{\mathrm{MAP}}(x)
= \arg\max_{\theta} \frac{f(x | \theta) \, g(\theta)}
  {\displaystyle\int_{\Theta} f(x | \theta') \, g(\theta') \, d\theta'}
= \arg\max_{\theta} f(x | \theta) \, g(\theta)
\!

事後分布の分母は θ に依存していないので、最適化には何の役割も果たさない。θ のMAP推定の結果は、ML推定で事前分布 g が一様分布の場合に一致する。MAP推定は、一様損失関数におけるベイズ推定関数である。

MAP推定の計算方法はいくつか存在する。

  • 閉形式で事前分布の最頻値が与えられるとき、解析的に解ける。この場合、共役事前分布を使う。
  • 数値的最適値を得るには、共役勾配法ニュートン法がある。これには1次または2次の導関数が必要とされ、それを解析的または数値的に評価する必要がある。
  • 期待値最大化法を変形して用いる。この場合、事後密度の導関数は不要である。

[編集]

ある並び (x_1, \dots, x_n) の独立な確率変数 N(\mu,\sigma_v^2 ) があり、μ の事前分布は N(0,\sigma_m^2 ) で与えられるとする。ここで μ のMAP推定を求める。

最大化すべき関数は次のようになる。

\pi(\mu) L(\mu) =  \frac{1}{\sqrt{2 \pi} \sigma_m} \exp\left(-\frac{1}{2} \left(\frac{\mu}{\sigma_m}\right)^2\right) \prod_{j=1}^n \frac{1}{\sqrt{2 \pi} \sigma_v} \exp\left(-\frac{1}{2} \left(\frac{x_j - \mu}{\sigma_v}\right)^2\right)

これは、次の式で μ を最小化することと等価である。

 \sum_{j=1}^n \left(\frac{x_j - \mu}{\sigma_v}\right)^2 + \left(\frac{\mu}{\sigma_m}\right)^2

従って μ のMAP推定値は以下のようになる。

\hat{\mu}_{MAP} =     \frac{\sigma_m^2}{n \sigma_m^2 + \sigma_v^2 } \sum_{j=1}^n x_j

\sigma_m \to \infty の場合を無情報事前分布(non-informative prior)と呼び、この例では \hat{\mu}_{MAP} \to \hat{\mu}_{MLE} である。

[編集] 関連項目

[編集] 参考文献

  • M. DeGroot, Optimal Statistical Decisions, McGraw-Hill, (1970).
  • Harold W. Sorenson, (1980) "Parameter Estimation: Principles and Problems", Marcel Dekker.


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -