Kölcsönös tájékoztatás

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2016. október 20-án áttekintett verziótól ; az ellenőrzések 5 szerkesztést igényelnek .

A kölcsönös információ  két valószínűségi változó statisztikai függvénye, amely leírja az egyik valószínűségi változóban található információ mennyiségét a másikhoz képest.

A kölcsönös információt két valószínűségi változó entrópiája és feltételes entrópiája határozza meg, mint

Mutual Information Properties

Különösen a független valószínűségi változók esetében a kölcsönös információ nulla:

Abban az esetben, ha az egyik valószínűségi változó (például ) egy másik valószínűségi változó ( ) determinisztikus függvénye, a kölcsönös információ megegyezik az entrópiával:

Feltételes és relatív kölcsönös információ

A feltételes kölcsönös információ  három valószínűségi változó statisztikai függvénye, amely leírja az egyik valószínűségi változóban található információ mennyiségét a másikhoz képest, tekintettel a harmadik valószínűségi változó értékére:

A relatív kölcsönös információ  három valószínűségi változó statisztikai függvénye, amely leírja az egyik valószínűségi változóban található információ mennyiségét a másikhoz képest, feltéve, hogy a harmadik valószínűségi változó megadva van:

Tulajdonságok

Három valószínűségi változó kölcsönös információja

Három valószínűségi változó kölcsönös információját is meghatározzuk :

Három valószínűségi változó kölcsönös információja negatív lehet. Tekintsünk egy egyenletes eloszlást a bitek hármasain , hogy . Határozzuk meg a valószínűségi változókat bitek értékeként , ill. Akkor

de ugyanakkor

és ezért .

Irodalom