Shannon titkosítási forrástétele

Az információelméletben Shannon titkosítási forrástétele (vagy csendes titkosítási tétel) határt szab a maximális adattömörítésnek és számértéket a Shannon- entrópiának .

A tétel azt mutatja, hogy (amikor az adatok mennyisége a végtelenbe hajlik a független és egyenlő eloszlású (IED) valószínűségi változók folyamában) lehetetlen az adatokat úgy tömöríteni, hogy a kódbecslés (átlagos bitek száma szimbólumonként) kisebb legyen, mint az eredeti adatok Shannon-entrópiája, az információpontosság elvesztése nélkül. A Shannon-entrópiához közeli kódot azonban jelentős veszteség nélkül lehet kapni.

A karakterkódok titkosítási forrástétele a bemeneti szó entrópiájának (amelyet véletlenszerű változóként ábrázol) és a szükséges ábécé méretének függvényében felső és alsó határokat hoz a titkosított szavak lehetséges minimális hosszához.

Nyilatkozat

A forráskód egy leképezés (sorozat) az információtárolóból alfabetikus karakterek sorozatába (általában bitekbe), így a forráskarakter egyedileg kinyerhető bináris számjegyekből (veszteségmentes kódolási forrás), vagy valamilyen eltéréssel (veszteséges kódolási forrás) . Ez az ötlet az adattömörítés mögött.

Karakterkódok titkosítási forrása

A számítástechnikában a titkosítási forrástétel (Shannon 1948) kimondja, hogy:

Egy N valószínűségi változó H ( X ) entrópiájú N H ( X  ) bitnél többre tömöríthető, az adatvesztés kockázata elhanyagolható, ha N a végtelenbe megy, de ha a tömörítés kisebb, mint N  H ( X ) bit, akkor a az adatok nagy valószínűséggel elvesznek. (MacKay 2003)."

A karakterkódok titkosítási forrástétele

Legyen , jelölje két véges ábécét, és jelölje az összes véges szó halmazát ezekből az ábécékből (rendezett).

Tegyük fel, hogy X egy valószínűségi változó, amely értéket vesz fel -tól , és f egy megfejthető kód -tól -ig , ahol . Legyen S egy valószínűségi változó, amelyet az f ( X ) szóhossz adja .

Ha f optimális abban az értelemben, hogy megvan a minimális szóhossza X -hez , akkor

(Shannon 1948).

A titkosítási forrástétel bizonyítása

Mivel NOR-ról van szó, az X 1 , …, X n idősora diszkrét értékek esetén H ( X ), folytonos értékek esetén pedig differenciális entrópiájú NOR . A titkosítási forrástétel kimondja, hogy mindegyikhez, minden egyes, az erőforrás entrópiájánál nagyobb becsléshez van egy kellően nagy n és egy titkosító, amely n NOP másolatot készít a , , erőforrásból, és bináris bitekre képezi le oly módon. hogy az eredeti karakter bináris bitekből, X legalább . valószínűséggel visszaállítható .

Bizonyíték

Vegyünk néhányat . a, , képlete így néz ki:

Az AEP azt mutatja, hogy kellően nagy n esetén a forrásból generált sorozat tipikus - , konvergens esetben megbízhatatlan. Elég nagy esetén: n , (lásd AEP)

A tipikus halmazok meghatározása azt jelenti, hogy azok a sorozatok, amelyek egy tipikus halmazban vannak, megfelelnek:

Vegye figyelembe, hogy:

több mint

Bármely karakterlánc megkülönböztetéséhez elegendő a bitekkel kezdeni

Titkosító algoritmus: a kódoló ellenőrzi, hogy a bejövő szekvencia hamis-e, ha igen, akkor visszaadja a sorozat bejövő frekvenciájának indexét, ha nem, akkor véletlenszerű számjegyet ad vissza. numerikus érték. Ha a bemeneti valószínűség hibás a sorozatban (kb. gyakorisággal ), akkor a kódoló nem generál hibát. Vagyis a hiba valószínűsége nagyobb, mint

A reverzibilitás bizonyítása A reverzibilitás bizonyítása azon a tényen alapszik, hogy be kell mutatni, hogy minden (a kitevő értelmében) kisebb méretű sorozat esetén lefedi az 1-gyel határolt sorozat gyakoriságát.

A karakterkódok titkosítási forrástételének bizonyítása

Legyen a szó hossza minden lehetségesnél ( ). Határozzuk meg , ahol C úgy van kiválasztva, hogy: .

Akkor

ahol a második sor a Gibbs-egyenlőtlenség , az ötödik pedig a Kraft-egyenlőtlenség , .

a második egyenlőtlenséghez, amelyet beállíthatunk

így

és akkor

és

Így a minimum S teljesül

Jegyzetek