A Fisher-információ a feltételes valószínűségi sűrűség relatív változási sebességének négyzetének matematikai elvárása [1] . Ez a funkció Ronald Fisherről kapta a nevét, aki leírta .
Legyen az adott statisztikai modell eloszlássűrűsége . Majd ha a függvény definiálva van
,ahol a log -likelihood függvény , és a matematikai elvárás adott , akkor ezt nevezzük Fisher információnak egy adott statisztikai modellhez független tesztekkel .
Ha kétszer differenciálható -hoz képest és bizonyos szabályossági feltételek mellett, a Fisher-információ átírható a következőre: [2]
Szabályos minták esetén: ( Ez a szabályosság definíciója).
Ebben az esetben, mivel a minta járulékfüggvény elvárása nulla, a felírt érték megegyezik a szórásával.
Az egy megfigyelésben található Fisher-féle információ mennyiségét:
.A normál modelleknél mindenki egyenlő.
Ha a minta egy elemből áll, akkor a Fisher információ a következőképpen kerül felírásra:
.A szabályosság feltételéből, valamint abból, hogy valószínűségi változók függetlensége esetén az összeg szórása egyenlő a szórások összegével, az következik, hogy független teszteknél .
Általában, ha a minta statisztika X , akkor
Ezenkívül az egyenlőség akkor és csak akkor érhető el , ha T elegendő statisztika .
Egy elegendő statisztika annyi Fisher-információt tartalmaz, mint a teljes X minta . Ez kimutatható a Neumann-féle faktorizációs teszttel , hogy elegendő statisztikai adatot kapjunk. Ha a statisztika elegendő a paraméterhez , akkor vannak g és h függvények , amelyek:
Az információk egyenlősége a következőkből következik:
ami a Fisher-információ meghatározásából és az attól való függetlenségből következik .
Az információelméletben használt egyéb intézkedések :