EM algoritmus

Az EM-algoritm ( eng.  Expectation-maximization (EM) algoritmus ) egy olyan algoritmus, amelyet a matematikai statisztikákban használnak a valószínűségi modellek paramétereinek maximális valószínűségi becslésére abban az esetben, ha a modell néhány rejtett változótól függ . Az algoritmus minden iterációja két lépésből áll. Az E-lépésben (elvárás) a likelihood függvény várható értékét számítjuk ki , míg a látens változókat megfigyelhetőként kezeljük . Az M-lépésben (maximalizálás) a maximális likelihood becslés kerül kiszámításra, így növelve az E-lépésben számított várható valószínűséget. Ezt az értéket azután az E-lépéshez használja a következő iterációban. Az algoritmus a konvergenciáig fut.

Gyakran az EM algoritmust használják Gauss -féle keverék elválasztására .

Az algoritmus leírása

Legyen  a megfigyelt változók néhány értéke, és  legyen rejtett változó. Ezek együtt egy teljes adathalmazt alkotnak . Általánosságban elmondható, hogy van néhány tipp, amely megkönnyíti a probléma megoldását, ha ismert. Például, ha eloszlások keveréke van , a valószínűségi függvény könnyen kifejezhető a keverék egyes eloszlásának paramétereivel.

Tegyük fel , hogy  ez egy teljes, paraméterekkel rendelkező adathalmaz valószínűségi sűrűsége (folytonos esetben) vagy valószínűségi függvénye (diszkrét esetben) : Ez a függvény a teljes modell valószínűségeként fogható fel, ha úgy tekintjük, a paraméterek függvénye . Vegye figyelembe, hogy a rejtett komponens feltételes eloszlása ​​bizonyos megfigyelések és egy rögzített paraméterkészlet mellett a következőképpen fejezhető ki:

,

a kiterjesztett Bayes -képlet és a teljes valószínűségi képlet segítségével . Így csak tudnunk kell a megfigyelt komponens eloszlását egy rögzített látens esetén és a látens adatok valószínűségét .

Az EM algoritmus iteratív módon javítja a kezdeti pontszámot új pontszámértékek kiszámításával stb. Minden lépésnél a következőképpen történik az áttérés a következőről :

hol  van a valószínűség várható logaritmusa. Más szóval, nem tudjuk azonnal kiszámítani a pontos valószínűséget, de az ismert adatokból ( ) utólagos becslést találhatunk a látens változók különböző értékeinek valószínűségére . Minden egyes érték- és paraméterkészlethez kiszámíthatjuk a valószínűségi függvény várható értékét ehhez a halmazhoz . Ez az előző értéktől függ, mert ez az érték befolyásolja a látens változók valószínűségét .

a következőképpen számítják ki:

vagyis ez egy feltételes elvárás a feltétel alatt .

Más szóval,  az az érték, amely maximalizálja (M) a log-valószínűség feltételes átlagát (E) a megfigyelt változók adott értékeire és a paraméterek előző értékére. Folyamatos esetben az értéket a következőképpen számítjuk ki:

Alternatív leírás

Bizonyos körülmények között célszerű az EM algoritmust két váltakozó maximalizálási lépésnek tekinteni. [1] [2] Tekintsük a függvényt:

ahol q a nem megfigyelt Z  változók valószínűségi eloszlása ; p Z | X ( · | x ; θ ) a nem megfigyelt változók feltételes eloszlása ​​fix megfigyelhető x és θ paraméterek esetén ; H  az entrópia , D KL  pedig a Kullback-Leibler távolság .

Ekkor az EM algoritmus lépései a következőképpen ábrázolhatók:

E(elvárás) lépés : Válassza a q -t az F maximalizálásához : M(aximizálás) lépés : Válassza a θ -t az F maximalizálásához :

Használati példák

Jegyzetek

  1. Radford; Neal; Hinton, Geoffrey . Az EM-algoritmus nézete, amely inkrementális, ritka és egyéb változatokat indokol  //  Learning in Graphical Models : Journal / Michael I. Jordan . - Cambridge, MA: MIT Press, 1999. - P. 355-368 . — ISBN 0262600323 .
  2. Hastie, Trevor; Tibshirani, Robert; Friedman, Jerome. 8.5 Az EM algoritmus // A statisztikai tanulás elemei  (neopr.) . - New York: Springer, 2001. - S. 236-243. — ISBN 0-387-95284-5 .

Linkek