Az információmennyiség az információelméletben az egyik véletlenszerű objektumban lévő információ mennyisége a másikhoz viszonyítva.
Legyen és a megfelelő halmazokon definiált valószínűségi változók és . Ekkor az információ mennyisége az a priori és a posteriori entrópiák közötti különbséghez viszonyítva :
,ahol
az entrópia , és
- feltételes entrópia, az információátvitel elméletében a csatornában lévő zajt jellemzi.
Az entrópia a következő tulajdonságokkal rendelkezik:
,ahol a halmaz elemeinek száma .
, ha a halmaz egyik eleme 1, a többi pedig 0 valószínűséggel valósul meg, amiatt, hogy és .
A maximális entrópiaértéket akkor érjük el, ha minden , azaz. minden eredmény egyformán valószínű.
A feltételes entrópia a következő tulajdonságokkal rendelkezik:
,Ebben az esetben , ha a leképezés egyértékű, pl. .
A feltételes entrópia maximális értékét akkor érjük el, ha a és független valószínűségi változók.
Az információ mennyiségére a tulajdonságok igazak:
Bayes tételének következményeként . ha és független valószínűségi változók.Az utolsó tulajdonság azt mutatja, hogy az információ mennyisége megegyezik az információs entrópiával , ha az információvesztési komponens (zaj) nulla.