A maximum likelihood módszer vagy a maximum likelihood módszer (MMP, ML, MLE - angol m aximum l ikelihood e stimation ) a matematikai statisztikában egy ismeretlen paraméter becslésére szolgáló módszer a likelihood függvény maximalizálásával [1] . Azon a feltételezésen alapulva, hogy a statisztikai mintára vonatkozó összes információt a valószínűségi függvény tartalmazza.
A maximum likelihood módszerét R. Fischer elemezte, ajánlotta és nagymértékben népszerűsítette 1912 és 1922 között (bár korábban Gauss , Laplace és mások is használták).
A maximális valószínűség becslése egy népszerű statisztikai módszer, amelyet statisztikai modell létrehozására használnak az adatokból, és becslést adnak a modell paramétereiről.
A maximum likelihood módszer a statisztika területén számos jól ismert becslési módszernek felel meg. Például érdekli egy olyan antropometriai paraméter, mint Oroszország lakóinak magassága. Tegyük fel, hogy nem a teljes népesség, hanem egy bizonyos számú ember növekedéséről van adata. Ezenkívül feltételezzük, hogy a növekedés egy normális eloszlású mennyiség, ismeretlen szórással és átlaggal . A mintában a növekedés átlaga és szórása a legnagyobb valószínűsége a teljes sokaság átlagának és szórásának.
Egy rögzített adathalmaz és egy alap valószínűségi modell esetén a maximum likelihood módszerrel megkapjuk a modell paramétereinek azon értékeit, amelyek „közelebb” teszik az adatokat a valóshoz. A maximum likelihood becslés egyedülálló és egyszerű módot biztosít a megoldások meghatározására normál eloszlás esetén.
A maximális valószínűség becslési módszerét a statisztikai modellek széles körében alkalmazzák, beleértve a következőket:
Legyen egy minta a disztribúcióból , ahol az ismeretlen paraméterek vannak. Legyen a likelihood függvény , ahol . Pontbecslés
paraméter maximális valószínűségi becslésének nevezzük . Így a maximális valószínűségi becslés az, amely maximalizálja a valószínűségi függvényt egy rögzített mintavételi megvalósításhoz.
Gyakran a log-likelihood függvényt használják a likelihood függvény helyett . Mivel a függvény monoton növekszik a teljes definíciós tartományban, bármely függvény maximuma a függvény maximuma, és fordítva. Ily módon
,Ha a likelihood függvény differenciálható, akkor az extrémum szükséges feltétele a gradiens nullával való egyenlősége :
Az elégséges szélsőfeltétel a második derivált mátrixa, a Hess- féle negatív meghatározottságaként fogalmazható meg :
A maximum likelihood módszer becslései tulajdonságainak értékeléséhez fontos az úgynevezett információs mátrix , amely definíció szerint egyenlő:
Az optimális ponton az információs mátrix egybeesik a mínusz előjellel vett hesseni várakozással:
hol van az aszimptotikus információs mátrix.
Az aszimptotikus hatékonyság azt jelenti, hogy az aszimptotikus kovariancia mátrix az összes konzisztens aszimptotikusan normális becslés alsó korlátja.
Az utolsó egyenlőség a következőképpen írható át:
ahol , ami azt mutatja, hogy a likelihood függvény a pontban éri el maximumát . Ily módon
.Egy ilyen becslés elfogult lesz: , honnan
A maximum meghatározásához a parciális deriváltokat nullával egyenlővé tesszük :
ahol
a minta átlaga , és a minta varianciája .Tegyük fel, hogy valamilyen mennyiséget mérünk . Egy mérés után az értékét hibával kaptuk : . Írjuk fel a valószínűségi sűrűséget, hogy az érték felveszi az értéket :
.
Most tegyük fel, hogy számos ilyen mérést végeztünk, és megkaptuk . Annak a valószínűségi sűrűsége, hogy a mennyiség felveszi az értékeket , a következő lesz:
.
Ezt a függvényt valószínűségi függvénynek nevezzük. A mért érték legvalószínűbb értékét a likelihood függvény maximuma határozza meg. Kényelmesebb a log-likelihood függvény:
.
Különböztesse meg a log-likelihood függvényt a következővel :
.
Egyenlítsd ki és szerezz valami értéket :
.
Cramer a következő tételt fogalmazta meg:
Tétel: Nincs más módszer egy kísérlet eredményeinek feldolgozására, amely jobb közelítést adna az igazsághoz, mint a maximum likelihood módszer.
Tegyük fel, hogy méréssorozatot végeztünk és értéksorozatot kaptunk , természetes, hogy ennek az eloszlásnak Gauss-formája lesz :
.
Írjuk fel a logaritmikus likelihood függvényt: .
Vegyük az első származékot:
.
Ha , akkor . Most vegyük a második származékot:
, ahol
.
Ezt nevezik az első mágikus képletnek [2] .
A feltételes maximum likelihood módszert (Conditional ML) használják a regressziós modellekben. A módszer lényege, hogy nem az összes változó (függő és regresszor) teljes együttes eloszlását használjuk, hanem csak a függő változó feltételes faktor szerinti eloszlását, vagyis valójában a regressziós modell véletlenszerű hibáinak eloszlását. . A teljes valószínűségi függvény a "feltételes valószínűségi függvény" és a tényezők eloszlássűrűségének szorzata. A feltételes MMP egyenértékű az MMP teljes verziójával abban az esetben, ha a tényezők eloszlása semmilyen módon nem függ a becsült paraméterektől. Ezt a feltételt gyakran megsértik az idősoros modellek, például az autoregresszív modell . Ebben az esetben a regresszorok a függő változó múltbeli értékei, ami azt jelenti, hogy értékeik is ugyanazt az AR modellt követik, vagyis a regresszorok eloszlása a becsült paraméterektől függ. Ilyen esetekben a feltételes és a teljes maximum likelihood módszer alkalmazásának eredménye eltér.
Szótárak és enciklopédiák |
---|