A kölcsönös információ két valószínűségi változó statisztikai függvénye, amely leírja az egyik valószínűségi változóban található információ mennyiségét a másikhoz képest.
A kölcsönös információt két valószínűségi változó entrópiája és feltételes entrópiája határozza meg, mint
Különösen a független valószínűségi változók esetében a kölcsönös információ nulla:
Abban az esetben, ha az egyik valószínűségi változó (például ) egy másik valószínűségi változó ( ) determinisztikus függvénye, a kölcsönös információ megegyezik az entrópiával:
A feltételes kölcsönös információ három valószínűségi változó statisztikai függvénye, amely leírja az egyik valószínűségi változóban található információ mennyiségét a másikhoz képest, tekintettel a harmadik valószínűségi változó értékére:
A relatív kölcsönös információ három valószínűségi változó statisztikai függvénye, amely leírja az egyik valószínűségi változóban található információ mennyiségét a másikhoz képest, feltéve, hogy a harmadik valószínűségi változó megadva van:
Három valószínűségi változó kölcsönös információját is meghatározzuk :
Három valószínűségi változó kölcsönös információja negatív lehet. Tekintsünk egy egyenletes eloszlást a bitek hármasain , hogy . Határozzuk meg a valószínűségi változókat bitek értékeként , ill. Akkor
de ugyanakkor
és ezért .
Tömörítési módszerek | |||||||
---|---|---|---|---|---|---|---|
Elmélet |
| ||||||
Veszteségmentes |
| ||||||
Hang |
| ||||||
Képek |
| ||||||
Videó |
|