Az információ mennyisége

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt hozzászólók, és jelentősen eltérhet a 2016. október 8-án felülvizsgált verziótól ; az ellenőrzések 3 szerkesztést igényelnek .

Az információmennyiség az információelméletben az egyik véletlenszerű objektumban lévő információ mennyisége a másikhoz viszonyítva.

Legyen és a megfelelő halmazokon definiált valószínűségi változók és . Ekkor az információ mennyisége az a priori és a posteriori entrópiák közötti különbséghez viszonyítva :

,

ahol

az entrópia , és

- feltételes entrópia, az információátvitel elméletében a csatornában lévő zajt jellemzi.

Entropy Properties

Az entrópia a következő tulajdonságokkal rendelkezik:

,

ahol a halmaz elemeinek száma .

, ha a halmaz egyik eleme 1, a többi pedig 0 valószínűséggel valósul meg, amiatt, hogy és .

A maximális entrópiaértéket akkor érjük el, ha minden , azaz. minden eredmény egyformán valószínű.

A feltételes entrópia a következő tulajdonságokkal rendelkezik:

,

Ebben az esetben , ha a leképezés egyértékű, pl. .

A feltételes entrópia maximális értékét akkor érjük el, ha a és független valószínűségi változók.

Az információ mennyiségének tulajdonságai

Az információ mennyiségére a tulajdonságok igazak:

Bayes tételének következményeként . ha és független valószínűségi változók.

Az utolsó tulajdonság azt mutatja, hogy az információ mennyisége megegyezik az információs entrópiával , ha az információvesztési komponens (zaj) nulla.

Irodalom