Az Akaike Information Criterion (AIC) egy olyan kritérium, amelyet kizárólag több statisztikai modell közül történő kiválasztáshoz használnak. Hirotsugu Akaike fejlesztette ki 1971-ben "információs kritériumként" ("(bizonyos) információs kritérium"), és egy 1974-es cikkben javasolta [1] .
A kritérium létrehozásának előfeltétele az volt, hogy a modell-előrejelzések minőségét egy tesztmintán, egy betanítási mintán ismert minőséggel értékeljük, feltéve, hogy a modellt a maximum likelihood módszerrel hangoljuk . Azaz a feladat a modell átképzésének értékelése volt . Akaike információelmélet segítségével (beleértve a Kullback-Leibler távolságot is) számos speciális esetre képes volt megszerezni a kívánt becslést.
Általában az AIC:
,ahol a paraméterek száma a statisztikai modellben , a modell valószínűségi függvényének maximalizált értéke .
Továbbá feltételezzük, hogy a modell hibái normálisan és egymástól függetlenül eloszlanak. Legyen a megfigyelések száma és a maradék négyzetösszeg
Továbbá feltételezzük, hogy a modell hibavarianciája ismeretlen, de mindegyiknél ugyanaz. Következésképpen:
Azonos hosszúságú mintákon végzett modellek összehasonlítása esetén a kifejezés egyszerűsíthető olyan kifejezések kidobásával, amelyek csak a következőtől függenek :
Így a kritérium nemcsak a közelítés minőségét díjazza, hanem a túl sok modellparaméter használatát is bünteti. Úgy gondolják, hogy az AIC-kritérium legalacsonyabb értékével rendelkező modell lesz a legjobb. A Schwartz-kritérium (SIC) jobban bünteti az ingyenes paramétereket.
Érdemes megjegyezni, hogy az AIC abszolút értékének nincs értelme - csak az összehasonlított modellek relatív sorrendjét jelzi.
Gyakran olyan modellek közül kell választani, amelyek hibáit normál eloszlásúnak tekintjük. Ez elvezet a kritériumhoz .
Ilyen esetekben az AIC adaptálható. A cikk keretében . Magától az AIC-től egy additív konstansban fog különbözni (csak az adatok függvénye, nem a modell függvénye), ami a kritérium relatív jellege miatt elhanyagolható.
A közelítéshez a valószínűségi függvényt a következőképpen határozzuk meg:
,ahol egy modellfüggetlen állandó, amely kizárható az azonos adatokon lévő modellek összehasonlításakor.
Így: . Konstans nélkül:
A kritériumnak ez a formája gyakran kényelmes, ha már kiszámoltuk , hogy milyen a közelítő minőségi statisztika. Azonos számú ponttal rendelkező adatokon végzett betanítási modellek esetén a legkisebb értékű modellt kell venni .
Hasonlóképpen, ha van egy számított statisztika („Explained Variance”), a következőt írhatjuk: