Maximális valószínűség módszere

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2021. január 19-én felülvizsgált verziótól ; az ellenőrzések 4 szerkesztést igényelnek .

A maximum likelihood módszer vagy a maximum likelihood módszer (MMP, ML, MLE - angol  m aximum l ikelihood e stimation ) a matematikai statisztikában  egy ismeretlen paraméter becslésére szolgáló módszer a likelihood függvény maximalizálásával [1] . Azon a feltételezésen alapulva, hogy a statisztikai mintára vonatkozó összes információt a valószínűségi függvény tartalmazza.

A maximum likelihood módszerét R. Fischer elemezte, ajánlotta és nagymértékben népszerűsítette 1912 és 1922 között (bár korábban Gauss , Laplace és mások is használták).

A maximális valószínűség becslése egy népszerű statisztikai módszer, amelyet statisztikai modell létrehozására használnak az adatokból, és becslést adnak a modell paramétereiről.

A maximum likelihood módszer a statisztika területén számos jól ismert becslési módszernek felel meg. Például érdekli egy olyan antropometriai paraméter, mint Oroszország lakóinak magassága. Tegyük fel, hogy nem a teljes népesség, hanem egy bizonyos számú ember növekedéséről van adata. Ezenkívül feltételezzük, hogy a növekedés egy normális eloszlású mennyiség, ismeretlen szórással és átlaggal . A mintában a növekedés átlaga és szórása a legnagyobb valószínűsége a teljes sokaság átlagának és szórásának.

Egy rögzített adathalmaz és egy alap valószínűségi modell esetén a maximum likelihood módszerrel megkapjuk a modell paramétereinek azon értékeit, amelyek „közelebb” teszik az adatokat a valóshoz. A maximum likelihood becslés egyedülálló és egyszerű módot biztosít a megoldások meghatározására normál eloszlás esetén.

A maximális valószínűség becslési módszerét a statisztikai modellek széles körében alkalmazzák, beleértve a következőket:

A módszer lényege

Legyen egy minta a disztribúcióból , ahol  az ismeretlen paraméterek vannak. Legyen  a likelihood függvény , ahol . Pontbecslés

paraméter maximális valószínűségi becslésének nevezzük . Így a maximális valószínűségi becslés az, amely maximalizálja a valószínűségi függvényt egy rögzített mintavételi megvalósításhoz.

Gyakran a log-likelihood függvényt használják a likelihood függvény helyett . Mivel a függvény monoton növekszik a teljes definíciós tartományban, bármely függvény maximuma a függvény maximuma, és fordítva. Ily módon

,

Ha a likelihood függvény differenciálható, akkor az extrémum szükséges feltétele a gradiens nullával való egyenlősége :

Az elégséges szélsőfeltétel  a második derivált mátrixa, a Hess- féle negatív meghatározottságaként fogalmazható meg :

A maximum likelihood módszer becslései tulajdonságainak értékeléséhez fontos az úgynevezett információs mátrix , amely definíció szerint egyenlő:

Az optimális ponton az információs mátrix egybeesik a mínusz előjellel vett hesseni várakozással:

Tulajdonságok

hol  van az aszimptotikus információs mátrix.

Az aszimptotikus hatékonyság azt jelenti, hogy az aszimptotikus kovariancia mátrix az összes konzisztens aszimptotikusan normális becslés alsó korlátja.

ahol  a minta méretének valószínűségi függvénye

Példák

Az utolsó egyenlőség a következőképpen írható át:

ahol , ami azt mutatja, hogy a likelihood függvény a pontban éri el maximumát . Ily módon

.

Egy ilyen becslés elfogult lesz: , honnan

.

A maximum meghatározásához a parciális deriváltokat nullával egyenlővé tesszük :

ahol

 a minta átlaga , és  a minta varianciája .

Alkalmazási mód [2]

A kísérlet feldolgozása

Tegyük fel, hogy valamilyen mennyiséget mérünk . Egy mérés után az értékét hibával kaptuk : . Írjuk fel a valószínűségi sűrűséget, hogy az érték felveszi az értéket :

.

Most tegyük fel, hogy számos ilyen mérést végeztünk, és megkaptuk . Annak a valószínűségi sűrűsége, hogy a mennyiség felveszi az értékeket , a következő lesz:

.

Ezt a függvényt valószínűségi függvénynek nevezzük. A mért érték legvalószínűbb értékét a likelihood függvény maximuma határozza meg. Kényelmesebb a log-likelihood függvény:

.

Különböztesse meg a log-likelihood függvényt a következővel :

.

Egyenlítsd ki és szerezz valami értéket :

.

Cramer a következő tételt fogalmazta meg:

Tétel: Nincs más módszer egy kísérlet eredményeinek feldolgozására, amely jobb közelítést adna az igazsághoz, mint a maximum likelihood módszer.

Mérési hibák

Tegyük fel, hogy méréssorozatot végeztünk és értéksorozatot kaptunk , természetes, hogy ennek az eloszlásnak Gauss-formája lesz :

.

Írjuk fel a logaritmikus likelihood függvényt: .

Vegyük az első származékot:

.

Ha , akkor . Most vegyük a második származékot:

, ahol

.

Ezt nevezik az első mágikus képletnek [2] .

Feltételes maximum likelihood módszer

A feltételes maximum likelihood módszert (Conditional ML) használják a regressziós modellekben. A módszer lényege, hogy nem az összes változó (függő és regresszor) teljes együttes eloszlását használjuk, hanem csak a függő változó feltételes faktor szerinti eloszlását, vagyis valójában a regressziós modell véletlenszerű hibáinak eloszlását. . A teljes valószínűségi függvény a "feltételes valószínűségi függvény" és a tényezők eloszlássűrűségének szorzata. A feltételes MMP egyenértékű az MMP teljes verziójával abban az esetben, ha a tényezők eloszlása ​​semmilyen módon nem függ a becsült paraméterektől. Ezt a feltételt gyakran megsértik az idősoros modellek, például az autoregresszív modell . Ebben az esetben a regresszorok a függő változó múltbeli értékei, ami azt jelenti, hogy értékeik is ugyanazt az AR modellt követik, vagyis a regresszorok eloszlása ​​a becsült paraméterektől függ. Ilyen esetekben a feltételes és a teljes maximum likelihood módszer alkalmazásának eredménye eltér.

Lásd még

Jegyzetek

  1. Fisher  – 1912. évi matematikai enciklopédikus szótár, Moszkva: Szovjet Enciklopédia, 1988.
  2. ↑ 1 2 A.P. Onuchin. A magfizika kísérleti módszerei. - Novoszibirszk: Novoszibirszki Állami Műszaki Egyetem, 2010. - S. 297-303. — 336 p. — ISBN 978-5-7782-1232-9 .

Irodalom