Akaike információs kritérium

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2018. június 29-én felülvizsgált verziótól ; az ellenőrzések 4 szerkesztést igényelnek .

Az Akaike Information Criterion (AIC)  egy olyan kritérium, amelyet kizárólag több statisztikai modell közül történő kiválasztáshoz használnak. Hirotsugu Akaike fejlesztette ki 1971-ben "információs kritériumként" ("(bizonyos) információs kritérium"), és egy 1974-es cikkben javasolta [1] .

A kritérium létrehozásának előfeltétele az volt, hogy a modell-előrejelzések minőségét egy tesztmintán, egy betanítási mintán ismert minőséggel értékeljük, feltéve, hogy a modellt a maximum likelihood módszerrel hangoljuk . Azaz a feladat a modell átképzésének értékelése volt . Akaike információelmélet segítségével (beleértve a Kullback-Leibler távolságot is) számos speciális esetre képes volt megszerezni a kívánt becslést.

Definíció

Általában az AIC:

,

ahol  a paraméterek száma a statisztikai modellben , a modell valószínűségi függvényének  maximalizált értéke .

Továbbá feltételezzük, hogy a modell hibái normálisan és egymástól függetlenül eloszlanak. Legyen  a megfigyelések száma és a maradék négyzetösszeg

Továbbá feltételezzük, hogy a modell hibavarianciája ismeretlen, de mindegyiknél ugyanaz. Következésképpen:

Azonos hosszúságú mintákon végzett modellek összehasonlítása esetén a kifejezés egyszerűsíthető olyan kifejezések kidobásával, amelyek csak a következőtől függenek :

Így a kritérium nemcsak a közelítés minőségét díjazza, hanem a túl sok modellparaméter használatát is bünteti. Úgy gondolják, hogy az AIC-kritérium legalacsonyabb értékével rendelkező modell lesz a legjobb. A Schwartz-kritérium (SIC) jobban bünteti az ingyenes paramétereket.

Érdemes megjegyezni, hogy az AIC abszolút értékének nincs értelme - csak az összehasonlított modellek relatív sorrendjét jelzi.

Alkalmazhatóság χ² hangolására (maximális valószínűség)

Gyakran olyan modellek közül kell választani, amelyek hibáit normál eloszlásúnak tekintjük. Ez elvezet a kritériumhoz .

Ilyen esetekben az AIC adaptálható. A cikk keretében . Magától az AIC-től egy additív konstansban fog különbözni (csak az adatok függvénye, nem a modell függvénye), ami a kritérium relatív jellege miatt elhanyagolható.

A közelítéshez a valószínűségi függvényt a következőképpen határozzuk meg:

,

ahol  egy modellfüggetlen állandó, amely kizárható az azonos adatokon lévő modellek összehasonlításakor.

Így: . Konstans nélkül:

A kritériumnak ez a formája gyakran kényelmes, ha már kiszámoltuk , hogy milyen a közelítő minőségi statisztika. Azonos számú ponttal rendelkező adatokon végzett betanítási modellek esetén a legkisebb értékű modellt kell venni .

Hasonlóképpen, ha van egy számított statisztika („Explained Variance”), a következőt írhatjuk:

Lásd még

Linkek

  1. Akaike, HirotuguÚj pillantás a statisztikai modell azonosítására  (neopr.)  // IEEE Transactions on Automatic Control. - 1974. - T. 19 , 6. sz . - S. 716-723 . - doi : 10.1109/TAC.1974.1100705 .

Irodalom