Az EM-algoritm ( eng. Expectation-maximization (EM) algoritmus ) egy olyan algoritmus, amelyet a matematikai statisztikákban használnak a valószínűségi modellek paramétereinek maximális valószínűségi becslésére abban az esetben, ha a modell néhány rejtett változótól függ . Az algoritmus minden iterációja két lépésből áll. Az E-lépésben (elvárás) a likelihood függvény várható értékét számítjuk ki , míg a látens változókat megfigyelhetőként kezeljük . Az M-lépésben (maximalizálás) a maximális likelihood becslés kerül kiszámításra, így növelve az E-lépésben számított várható valószínűséget. Ezt az értéket azután az E-lépéshez használja a következő iterációban. Az algoritmus a konvergenciáig fut.
Gyakran az EM algoritmust használják Gauss -féle keverék elválasztására .
Legyen a megfigyelt változók néhány értéke, és legyen rejtett változó. Ezek együtt egy teljes adathalmazt alkotnak . Általánosságban elmondható, hogy van néhány tipp, amely megkönnyíti a probléma megoldását, ha ismert. Például, ha eloszlások keveréke van , a valószínűségi függvény könnyen kifejezhető a keverék egyes eloszlásának paramétereivel.
Tegyük fel , hogy ez egy teljes, paraméterekkel rendelkező adathalmaz valószínűségi sűrűsége (folytonos esetben) vagy valószínűségi függvénye (diszkrét esetben) : Ez a függvény a teljes modell valószínűségeként fogható fel, ha úgy tekintjük, a paraméterek függvénye . Vegye figyelembe, hogy a rejtett komponens feltételes eloszlása bizonyos megfigyelések és egy rögzített paraméterkészlet mellett a következőképpen fejezhető ki:
,a kiterjesztett Bayes -képlet és a teljes valószínűségi képlet segítségével . Így csak tudnunk kell a megfigyelt komponens eloszlását egy rögzített látens esetén és a látens adatok valószínűségét .
Az EM algoritmus iteratív módon javítja a kezdeti pontszámot új pontszámértékek kiszámításával stb. Minden lépésnél a következőképpen történik az áttérés a következőről :
hol van a valószínűség várható logaritmusa. Más szóval, nem tudjuk azonnal kiszámítani a pontos valószínűséget, de az ismert adatokból ( ) utólagos becslést találhatunk a látens változók különböző értékeinek valószínűségére . Minden egyes érték- és paraméterkészlethez kiszámíthatjuk a valószínűségi függvény várható értékét ehhez a halmazhoz . Ez az előző értéktől függ, mert ez az érték befolyásolja a látens változók valószínűségét .
a következőképpen számítják ki:
vagyis ez egy feltételes elvárás a feltétel alatt .
Más szóval, az az érték, amely maximalizálja (M) a log-valószínűség feltételes átlagát (E) a megfigyelt változók adott értékeire és a paraméterek előző értékére. Folyamatos esetben az értéket a következőképpen számítjuk ki:
Bizonyos körülmények között célszerű az EM algoritmust két váltakozó maximalizálási lépésnek tekinteni. [1] [2] Tekintsük a függvényt:
ahol q a nem megfigyelt Z változók valószínűségi eloszlása ; p Z | X ( · | x ; θ ) a nem megfigyelt változók feltételes eloszlása fix megfigyelhető x és θ paraméterek esetén ; H az entrópia , D KL pedig a Kullback-Leibler távolság .
Ekkor az EM algoritmus lépései a következőképpen ábrázolhatók:
E(elvárás) lépés : Válassza a q -t az F maximalizálásához : M(aximizálás) lépés : Válassza a θ -t az F maximalizálásához :Gépi tanulás és adatbányászat | |
---|---|
Feladatok | |
Tanulás tanárral | |
klaszteranalízis | |
Dimenziócsökkentés | |
Strukturális előrejelzés | |
Anomália észlelése | |
Grafikon valószínűségi modellek | |
Neurális hálózatok | |
Megerősítő tanulás |
|
Elmélet | |
Folyóiratok és konferenciák |
|