Az információelméletben Shannon titkosítási forrástétele (vagy csendes titkosítási tétel) határt szab a maximális adattömörítésnek és számértéket a Shannon- entrópiának .
A tétel azt mutatja, hogy (amikor az adatok mennyisége a végtelenbe hajlik a független és egyenlő eloszlású (IED) valószínűségi változók folyamában) lehetetlen az adatokat úgy tömöríteni, hogy a kódbecslés (átlagos bitek száma szimbólumonként) kisebb legyen, mint az eredeti adatok Shannon-entrópiája, az információpontosság elvesztése nélkül. A Shannon-entrópiához közeli kódot azonban jelentős veszteség nélkül lehet kapni.
A karakterkódok titkosítási forrástétele a bemeneti szó entrópiájának (amelyet véletlenszerű változóként ábrázol) és a szükséges ábécé méretének függvényében felső és alsó határokat hoz a titkosított szavak lehetséges minimális hosszához.
A forráskód egy leképezés (sorozat) az információtárolóból alfabetikus karakterek sorozatába (általában bitekbe), így a forráskarakter egyedileg kinyerhető bináris számjegyekből (veszteségmentes kódolási forrás), vagy valamilyen eltéréssel (veszteséges kódolási forrás) . Ez az ötlet az adattömörítés mögött.
A számítástechnikában a titkosítási forrástétel (Shannon 1948) kimondja, hogy:
Egy N valószínűségi változó H ( X ) entrópiájú N H ( X ) bitnél többre tömöríthető, az adatvesztés kockázata elhanyagolható, ha N a végtelenbe megy, de ha a tömörítés kisebb, mint N H ( X ) bit, akkor a az adatok nagy valószínűséggel elvesznek. (MacKay 2003)."Legyen , jelölje két véges ábécét, és jelölje az összes véges szó halmazát ezekből az ábécékből (rendezett).
Tegyük fel, hogy X egy valószínűségi változó, amely értéket vesz fel -tól , és f egy megfejthető kód -tól -ig , ahol . Legyen S egy valószínűségi változó, amelyet az f ( X ) szóhossz adja .
Ha f optimális abban az értelemben, hogy megvan a minimális szóhossza X -hez , akkor
(Shannon 1948).
Mivel NOR-ról van szó, az X 1 , …, X n idősora diszkrét értékek esetén H ( X ), folytonos értékek esetén pedig differenciális entrópiájú NOR . A titkosítási forrástétel kimondja, hogy mindegyikhez, minden egyes, az erőforrás entrópiájánál nagyobb becsléshez van egy kellően nagy n és egy titkosító, amely n NOP másolatot készít a , , erőforrásból, és bináris bitekre képezi le oly módon. hogy az eredeti karakter bináris bitekből, X legalább . valószínűséggel visszaállítható .
Bizonyíték
Vegyünk néhányat . a, , képlete így néz ki:
Az AEP azt mutatja, hogy kellően nagy n esetén a forrásból generált sorozat tipikus - , konvergens esetben megbízhatatlan. Elég nagy esetén: n , (lásd AEP)
A tipikus halmazok meghatározása azt jelenti, hogy azok a sorozatok, amelyek egy tipikus halmazban vannak, megfelelnek:
Vegye figyelembe, hogy:
több mint
Bármely karakterlánc megkülönböztetéséhez elegendő a bitekkel kezdeni
Titkosító algoritmus: a kódoló ellenőrzi, hogy a bejövő szekvencia hamis-e, ha igen, akkor visszaadja a sorozat bejövő frekvenciájának indexét, ha nem, akkor véletlenszerű számjegyet ad vissza. numerikus érték. Ha a bemeneti valószínűség hibás a sorozatban (kb. gyakorisággal ), akkor a kódoló nem generál hibát. Vagyis a hiba valószínűsége nagyobb, mint
A reverzibilitás bizonyítása A reverzibilitás bizonyítása azon a tényen alapszik, hogy be kell mutatni, hogy minden (a kitevő értelmében) kisebb méretű sorozat esetén lefedi az 1-gyel határolt sorozat gyakoriságát.
Legyen a szó hossza minden lehetségesnél ( ). Határozzuk meg , ahol C úgy van kiválasztva, hogy: .
Akkor
ahol a második sor a Gibbs-egyenlőtlenség , az ötödik pedig a Kraft-egyenlőtlenség , .
a második egyenlőtlenséghez, amelyet beállíthatunk
így
és akkor
és
Így a minimum S teljesül