A valószínűségi függvény a matematikai statisztikában egy paraméteres eloszlásból vett mintának egy paraméter függvényének tekintett együttes eloszlása . Ez az ezekre a mintaértékekre kiszámított együttes sűrűségfüggvényt (folyamatos eloszlásból származó minta esetén) vagy együttes valószínűséget (diszkrét eloszlásból származó minta esetén) használja.
A valószínűség és a valószínűség fogalma szorosan összefügg. Hasonlíts össze két mondatot:
Ha a valószínűségi eloszlás függ a paramétertől , akkor egyrészt figyelembe vehetjük az események feltételes valószínűségét egy adott paraméterre , másrészt egy adott esemény valószínűségét a paraméter különböző értékeire . Az első eset egy olyan függvénynek felel meg, amely az eseménytől függ : , a második pedig egy olyan függvénynek, amely egy paramétertől függ egy fix eseménnyel : . Az utolsó kifejezés a valószínűségi függvény, és megmutatja, hogy a kiválasztott paraméterérték mennyire valószínű egy ismert eseményhez .
Informálisan : ha a valószínűség lehetővé teszi számunkra, hogy ismert paraméterek alapján előre jelezzük az ismeretlen kimeneteleket, akkor a valószínűség lehetővé teszi, hogy ismert eredmények alapján becsüljük meg az ismeretlen paramétereket.
,Fontos megérteni, hogy a valószínűség abszolút értékéből nem lehet valószínűségi ítéleteket hozni. A Likelihood lehetővé teszi több, különböző paraméterekkel rendelkező valószínűségi eloszlás összehasonlítását, és annak összefüggésében annak értékelését, hogy a megfigyelt események közül melyek a legvalószínűbbek.
Adjuk meg a valószínűségi eloszlások parametrikus családját , és adjunk meg néhány mintát . Tegyük fel, hogy ennek a mintának az együttes eloszlását egy függvény adja meg , ahol vagy egy valószínűségi sűrűség , vagy egy véletlenvektor valószínűségi függvénye .
Rögzített mintavételezés esetén a függvényt likelihood függvénynek [1] nevezzük .
Sok alkalmazásban meg kell találni a valószínűségi függvény maximumát, amely a derivált kiszámításához kapcsolódik. A logaritmus monoton növekvő függvény, így a függvény logaritmusa ugyanazon a ponton éri el a maximumát, mint maga a függvény. Másrészt a szorzat logaritmusa egy összeg, ami leegyszerűsíti a differenciálást. Ezért gyakorlati számításokhoz célszerű a likelihood függvény logaritmusát használni.
,ahol a sűrűség- vagy valószínűségi eloszlásfüggvény . A log-likelihood függvénynek ebben az esetben az alakja van
.Legyen annak a valószínűsége , hogy egy érmefeldobásra fejet kapunk. Ez az érték tekinthető olyan paraméternek, amely 0-tól 1-ig vesz fel értékeket. Legyen az esemény két sas elvesztése két egymást követő érmefeldobás során. Feltételezve, hogy mindkét dobás eredménye független, azonos eloszlású valószínűségi változó , az esemény valószínűsége egyenlő lesz . Ennek megfelelően a
Így a likelihood függvény a paraméter értékénél és az esemény bekövetkezésének feltétele mellett 0,25, amely matematikailag felírható:
Ez a tény nem azonos a Bayes-tételből adódó "a valószínűsége annak, hogy egy esemény bekövetkezése esetén 0,25" állítással .
Az ebben a példában megadott valószínűségi függvény másodfokú , így ennek a függvénynek az integrálja a paraméterértékek teljes tartományában 1/3 lesz. Ez a tény egy másik különbséget mutat a likelihood-függvény és a szokásos valószínűségi sűrűség között, amelynek integráljának egyenlőnek kell lennie eggyel.
A hitelességet először Thorvald Thiele 1889 -ben megjelent könyvében említették [2] .
A valószínűség gondolatának teljes leírását először Ronald Fisher adta meg 1922 - ben "The Mathematical Foundations of Theoretical Statistics" [3] című munkájában . Ebben a munkában Fisher a maximum likelihood módszer kifejezést is használja . Fisher kifogásolja az inverz valószínűség használatát a statisztikai következtetések alapjaként, és helyette a likelihood függvény használatát javasolja.