A Bayes -féle statisztikai következtetésben egy bizonytalan érték előzetes valószínűségi eloszlása ( angolul prior probability distribution , vagy egyszerűen prior ) olyan valószínűségi eloszlás , amely a kísérleti adatok figyelembevétele előtti feltételezéseket fejezi ki . Például, ha a szavazók aránya, akik készek egy bizonyos jelöltre szavazni, akkor az előzetes eloszlás a közvélemény-kutatási vagy választási eredmények figyelembevétele előtti feltételezés lesz. Szemben a posterior valószínűséggel .
Bayes tétele szerint a prior eloszlás és a likelihood függvény normalizált szorzata egy bizonytalan értékű feltételes eloszlás a figyelembe vett adatok szerint.
Az előzetes elosztást gyakran tapasztalt szakértő szubjektíven adja meg. Ha lehetséges, a konjugált előzetes eloszlást használjuk , ami leegyszerűsíti a számításokat.
A korábbi eloszlási paramétereket hiperparamétereknek nevezzük , hogy megkülönböztessük őket az adatmodell paramétereitől . Például, ha a béta eloszlást egy Bernoulli -eloszlási paraméter eloszlásának modellezésére használják , akkor:
Az informatív prior konkrét információt fejez ki egy változóról.
Például a holnap déli levegőhőmérséklet megfelelő előfeltétele egy normális eloszlás , amelynek középértéke megegyezik a mai déli hőmérséklettel, és szórása a napi hőmérsékleti eltéréssel.
Így az egyik probléma posterior eloszlása (a mai hőmérséklet) a másik probléma (a holnap hőmérséklete) priorja lesz; minél több bizonyíték halmozódik fel egy ilyen a prioriban, annál kevésbé függ a kezdeti feltevéstől és inkább a felhalmozott adatoktól.
A nem informatív prior fuzzy vagy általános információt fejez ki egy változóról.
Egy ilyen név nem túl pontos, pontosabb lenne egy nem túl informatív a priori vagy egy objektív a priori , mivel az eloszlás tulajdonságait nem szubjektíven osztják ki.
Például egy ilyen a priori "objektív" információt fejezhet ki, hogy "a változó csak pozitív lehet" vagy "a változó az intervallumban van".
A nem informatív a priori hozzárendelésének legegyszerűbb és legrégebbi szabálya a közömbösség elve , amely minden lehetőséghez egyenlő valószínűséget rendel.
A paraméterbecslési problémákban a nem informatív a priori használata általában a hagyományostól alig eltérő eredményeket ad, mivel a likelihood függvény gyakran több információt ad, mint a nem informatív a priori.
Kísérletek történtek olyan logikai a priori ( angolul a priori probability ) megtalálására, amely a valószínűség természetéből következne. Ez egy olyan filozófiai vita tárgya, amely a bayesi megközelítés követőit két csoportra osztotta: "objektív" (akik úgy vélik, hogy sok alkalmazott helyzetben létezik ilyen priori) és "szubjektív" (akik úgy vélik, hogy a korábbi eloszlások általában szubjektív véleményeket képviselnek). és nem igazolható szigorúan (Williamson 2010)). Talán a legerősebb érvet az objektív bayesizmus mellett Jaynes, Edwin Thompson hozta fel .
Példaként a természetes a priorira, Jaynes (2003) nyomán, vegyük figyelembe azt a helyzetet, amikor a labda ismert, hogy a három csésze A, B vagy C egyike alatt van elrejtve, de más információ nem áll rendelkezésre. Ebben az esetben intuitív módon az egyenletes eloszlás tűnik az egyetlen ésszerűnek. Formálisabban a probléma nem változik, ha a csészék neveit felcseréljük. Ezért érdemes ilyen előzetes eloszlást választani, hogy a nevek permutációja ne változtassa meg. És az egységes eloszlás az egyetlen megfelelő.
Ha Bayes tételét így írjuk:
akkor nyilvánvaló, hogy igaz marad, ha az összes P ( A i ) és P ( A j ) előzetes valószínűséget megszorozzuk ugyanazzal az állandóval; ugyanez igaz a folytonos valószínűségi változókra is . Az utólagos valószínűségek normalizálva maradnak 1 összegére (vagy integráljára), még akkor is, ha a priorokat nem normalizálták. Így az előzetes eloszlásnak csak a valószínűségek megfelelő arányait kell megadnia.