Információs entrópia

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2020. január 17-én felülvizsgált verziótól ; az ellenőrzések 35 szerkesztést igényelnek .

Az információs entrópia  egy bizonyos rendszer bizonytalanságának mértéke (a statisztikai fizikában vagy az információelméletben ), különösen az elsődleges ábécé bármely karakterének megjelenésének kiszámíthatatlanságát . Ez utóbbi esetben információvesztés hiányában az entrópia számszerűen megegyezik a továbbított üzenet szimbólumonkénti információmennyiségével .

Például egy orosz nyelvű mondatot alkotó betűsorozatban különböző betűk különböző gyakorisággal jelennek meg , így egyes betűk előfordulási bizonytalansága kisebb, mint másoké. Ha figyelembe vesszük, hogy egyes betűkombinációk (jelen esetben a -edik rendű entrópiáról beszélnek, lásd alább ) nagyon ritkák, akkor a bizonytalanság még tovább csökken.

Formális definíciók

Az információs bináris entrópiát információvesztés hiányában a Hartley képlet segítségével számítjuk ki :

,

ahol  az ábécé ereje, az  információ mennyisége az üzenet egyes szimbólumaiban. Egy olyan valószínűségi változó esetén , amely független véletlenszerű értékeket vesz fel valószínűségekkel ( ), a Hartley-képlet Shannon képletévé változik:

Ezt a mennyiséget átlagos üzenetentrópiának is nevezik . A mennyiséget parciális entrópiának nevezzük , amely csak az -e állapotot jellemzi.

Így a rendszer entrópiája a számmal rendelkező állapot (esemény) összes relatív előfordulási gyakoriságának ellentétes előjelű összege , megszorozva azok bináris logaritmusával [1] . Ez a diszkrét véletlenszerű események definíciója formálisan kiterjeszthető a valószínűségi sűrűségeloszlás által adott folytonos eloszlásokra , azonban az eredményül kapott funkcionális tulajdonságai kissé eltérőek lesznek (lásd a differenciálentrópiát ).

Általában az entrópia definíciójában a logaritmus alapja 1-nél nagyobb lehet (mivel egy csak egy karakterből álló ábécé nem közvetíthet információt); a logaritmus alapjának megválasztása határozza meg az entrópia mértékegységét. A kettes számrendszeren alapuló információs rendszerek esetében az információs entrópia (valójában információ) mértékegysége egy kicsit . A matematikai statisztika problémáiban kényelmesebb lehet a természetes logaritmus használata , amely esetben az információs entrópia egysége nat .

Shannon meghatározása

Claude Shannon azt javasolta, hogy az információnyereség egyenlő az elveszett bizonytalansággal, és meghatározta a mérési követelményeket:

  1. az intézkedésnek folyamatosnak kell lennie; azaz a valószínűségi érték értékének kis mértékű változása kis nettó változást kell, hogy okozzon a függvényben;
  2. abban az esetben, ha minden opció (a fenti példában betűk) egyformán valószínű, az opciók (betűk) számának növelése mindig növelje a függvény értékét;
  3. két lépésben lehessen választani (példánkban betűk), amelyben a végeredmény függvényének értéke a köztes eredmények függvényeinek összege legyen.[ tiszta ]

Ezért az entrópiafüggvénynek teljesítenie kell a feltételeket

  1. mindenre definiált és folyamatos , ahol mindenre és . (Ez a függvény csak a valószínűségi eloszlástól függ, az ábécétől nem.)
  2. Pozitív egész számok esetén a következő egyenlőtlenségnek teljesülnie kell:
  3. Pozitív egész számok esetén, ahol , az egyenlőségnek teljesülnie kell

Shannon megmutatta [2] , hogy az egyetlen függvény, amely megfelel ezeknek a követelményeknek, az

ahol  egy pozitív állandó (és valójában csak az entrópia mértékegységének kiválasztásához szükséges; ennek az állandónak a megváltoztatása egyenértékű a logaritmus alapjának megváltoztatásával).

Shannon megállapította, hogy az információforrásra alkalmazott entrópia mérése ( ) meg tudja határozni azt a minimális sávszélesség-követelményt, amely az információ kódolt bináris számok formájában történő megbízható továbbításához szükséges. A Shannon-képlet levezetéséhez ki kell számítani az ábrán szereplő "információmennyiség" matematikai elvárását az információforrásból. A Shannon-entrópia mértéke egy valószínűségi változó megvalósulásának bizonytalanságát fejezi ki. Az entrópia tehát az üzenetben található információ és az információ azon része közötti különbség, amely pontosan ismert (vagy nagymértékben megjósolható) az üzenetben. Példa erre a nyelv redundanciája  – egyértelmű statisztikai minták vannak a betűk, egymást követő betűpárok, hármasok stb. megjelenésében (lásd Markov-láncok ).

A Shannon-entrópia meghatározása a termodinamikai entrópia fogalmához kapcsolódik . Boltzmann és Gibbs sokat dolgozott a statisztikai termodinamikán, ami hozzájárult az „entrópia” szó elfogadásához az információelméletben. Kapcsolat van a termodinamikai és az információs entrópia között. Például Maxwell démona is szembeállítja az információ termodinamikai entrópiáját, és tetszőleges mennyiségű információ megszerzése egyenlő az entrópia elvesztésével.

Definíció saját információk felhasználásával

Egy valószínűségi változó entrópiája úgy is meghatározható, hogy először bevezetjük egy véges számú értékű valószínűségi változó eloszlásának koncepcióját: [3]

és saját információ :

Ekkor az entrópiát a következőképpen határozzuk meg:

Információs entrópia mértékegységei

Az információmennyiség és az entrópia mértékegysége a logaritmus alapjától függ: bit , nat , trit vagy hartley .

Tulajdonságok

Az entrópia egy adatforrás valószínűségi modelljének kontextusában meghatározott mennyiség . Például egy érme feldobásának entrópiája van:

bit per dobás (feltéve, hogy ez független), és a lehetséges állapotok száma egyenlő: lehetséges állapotok (értékek) („fejek” és „ farok ”).

Egy olyan forrás esetében, amely csak "A" betűkből álló karakterláncot generál, az entrópia nulla: , és a lehetséges állapotok száma: a lehetséges állapot (érték) ("A"), és nem függ a karakterlánc alapjától. logaritmus. Ez is olyan információ, amelyet szintén figyelembe kell venni. Példa azokra a memóriaeszközökre , amelyek nullával egyenlő entrópiájú biteket használnak, de egy lehetséges állapotnak megfelelő információmennyiséggel , azaz nem egyenlő nullával, a ROM -ban rögzített adatbitek , amelyekben minden bitnek csak egy lehetséges . állapot .

Így például empirikusan megállapítható, hogy egy angol szöveg entrópiája karakterenként 1,5 bit, ami a különböző szövegeknél eltérő lehet. Az adatforrás entrópiájának mértéke az adatelemenkénti bitek átlagos bitszámát jelenti, amely az (adat)titkosításukhoz szükséges információvesztés nélkül, optimális kódolással.

  1. Előfordulhat, hogy egyes adatbitek nem hordoznak információt. Például az adatstruktúrák gyakran redundáns információkat tárolnak, vagy azonos szakaszokkal rendelkeznek, függetlenül az adatszerkezetben lévő információktól.
  2. Az entrópia mennyiségét nem mindig egész számú bitként fejezzük ki.

Matematikai tulajdonságok

  1. Nem negativitás : .
  2. Korlátozottság : , ami a Jensen-féle egyenlőtlenségből következik a konkáv függvényre és . Ha az összes elem egyformán valószínű, .
  3. Ha független, akkor .
  4. Az entrópia az elemek valószínűségi eloszlásának felfelé konvex függvénye.
  5. Ha az elemek valószínűségi eloszlása ​​azonos, akkor .

Hatékonyság

Az ábécé valószínűségi eloszlása ​​messze nem egyenletes . Ha az eredeti ábécé karaktereket tartalmaz, akkor összehasonlítható egy „optimalizált ábécével”, amelynek a valószínűségi eloszlása ​​egyenletes. Az eredeti és az optimalizált ábécé entrópiájának aránya az eredeti ábécé hatékonysága , amely százalékban is kifejezhető. Az eredeti szimbolikus ábécé hatékonysága annak -ári entrópiájaként is meghatározható.

Az entrópia korlátozza a lehetséges legnagyobb veszteségmentes (vagy majdnem veszteségmentes) tömörítést, amely egy elméletileg tipikus halmaz vagy a gyakorlatban Huffman -kódolás , Lempel-Ziv-Welch kódolás vagy aritmetikai kódolással valósítható meg .

Változatok és általánosítások

b -ár entrópia

Általában egy kezdeti ábécével és diszkrét valószínűség- eloszlással rendelkező forrás b - ár entrópiáját ( ahol b 2, 3, …) a következőképpen adjuk meg:

Különösen, amikor , a szokásos bináris entrópiát kapjuk, bitben mérve . -val tritekben mért hármas entrópiát kapunk (egy tritnek van egy információforrása három kiegyenlíthető állapottal). Amikor natsban mért információt kapunk .

Feltételes entrópia

Ha az ábécé karaktereinek sorrendje nem független (például a franciában a „q” betű után szinte mindig „u”, a „peredovik” szó után pedig a szovjet újságokban a „gyártás” ill. Általában a „munka” követését követték, az ilyen szimbólumok sorozatát hordozott információ mennyisége (és ebből következően az entrópia) kisebb. A feltételes entrópiát használják az ilyen tények figyelembevételére.

Az elsőrendű feltételes entrópia (hasonlóan az elsőrendű Markov-modellhez ) az ábécé entrópiája, ahol ismertek az egyik betű megjelenésének valószínűsége a másik után (vagyis a kétbetűs kombinációk valószínűsége). :

ahol  az előző karaktertől függő állapot és  az adott valószínűség , amely az előző karakter volt.

Például az orosz nyelvhez "e" betű nélkül [4] .

A privát és általános feltételes entrópiák tekintetében az információveszteség teljes mértékben le van írva a zajos csatornán történő adatátvitel során. Ehhez úgynevezett csatornamátrixokat használnak . A forrásoldali veszteség leírásához (azaz az elküldött jel ismert), vegye figyelembe annak feltételes valószínűségét , hogy a vevő megkapja a szimbólumot , feltéve, hogy a szimbólumot elküldték . Ebben az esetben a csatornamátrix a következő formájú:

Az átló mentén elhelyezkedő valószínűségek a helyes vétel valószínűségét írják le, és bármely sor elemeinek összege 1-et ad. Az egy átvitt jelre eső veszteségeket a részleges feltételes entrópia segítségével írjuk le:

Az összes jel átviteli veszteségének kiszámításához a teljes feltételes entrópiát használjuk:

a forrás oldali entrópiát jelenti,  a vevőoldali entrópiát hasonlóan tekintjük: ehelyett , mindenhol feltüntetve (a karakterlánc elemeit összegezve megkaphatja a , az átló elemei pedig azt a valószínűséget, hogy pontosan a karakter az elküldésre került, vagyis a helyes átvitel valószínűsége).

Kölcsönös entrópia

A kölcsönös entrópia vagy egyesülési entrópia az összekapcsolt rendszerek entrópiájának kiszámítására szolgál (a statisztikailag függő üzenetek együttes megjelenésének entrópiája), és jelölése , ahol az adót és  - a vevőt jellemzi.

Az átvitt és vett jelek kapcsolatát közös eseményvalószínűségek írják le , és csak egy mátrix szükséges a csatorna jellemzőinek teljes leírásához:

Egy általánosabb esetben, amikor nem egy csatorna van leírva, hanem a kölcsönható rendszerek egésze, a mátrixnak nem kell négyzetesnek lennie. A számmal rendelkező oszlop összes elemének összege adja a számot , a számot tartalmazó sor összege a, a mátrix összes elemének összege pedig ​1. Az események együttes valószínűsége és a szorzatként kerül kiszámításra. a kezdeti és feltételes valószínűség:

A feltételes valószínűségeket a Bayes-képlet állítja elő . Így minden adat rendelkezésre áll a forrás és vevő entrópiák kiszámításához:

A kölcsönös entrópiát az összes mátrixvalószínűség egymás utáni sor (vagy oszlop) összegzésével számítják, szorozva a logaritmusukkal:

A mértékegység bit / két karakter, ez azért van, mert a kölcsönös entrópia leírja a bizonytalanságot egy karakterpárra: küldött és fogadott. Egyszerű átalakításokkal azt is megkapjuk

A kölcsönös entrópiának megvan az információ teljességének a tulajdonsága  - minden figyelembe vett mennyiség megszerezhető belőle.

Történelem

1948- ban, miközben az információ zajos kommunikációs csatornán keresztül történő racionális továbbításának problémáját vizsgálta, Claude Shannon forradalmi valószínűségi megközelítést javasolt a kommunikáció megértéséhez, és megalkotta az entrópia első valóban matematikai elméletét . Szenzációs ötletei gyorsan alapul szolgáltak két fő terület kidolgozásához: az információelmélethez , amely a valószínűség és az ergodikus elmélet fogalmát használja az adat- és kommunikációs rendszerek statisztikai jellemzőinek tanulmányozására, valamint a kódoláselméletet , amely elsősorban algebrai és geometriai eszközöket használ. hatékony kódok kidolgozására.

Az entrópia fogalmát mint a véletlenszerűség mértékét Shannon vezette be " A Mathematical Theory of Communication " című tanulmányában, amely két részben jelent meg a Bell System Technical Journal 1948-ban.  

Jegyzetek

  1. Ez az ábrázolás kényelmes a bináris formában bemutatott információkkal való munkavégzéshez; általában a logaritmus alapja eltérő lehet.
  2. Shannon, Claude E. A kommunikáció matematikai elmélete  (meghatározatlan)  // Bell System Technical Journal. - 1948. - július ( 27. évf . 3. sz .). - S. 419 . - doi : 10.1002/j.1538-7305.1948.tb01338.x .
  3. Gabidulin E. M. , Pilipchuk N. I. Előadások az információelméletről - MIPT , 2007. - P. 16. - 214 p. — ISBN 978-5-7417-0197-3
  4. Lebedev D.S., Garmash V.A. A távirati üzenetek átviteli sebességének növelésének lehetőségéről. - M .: Electrosvyaz, 1958. - No. 1. - S. 68-69.

Lásd még

Linkek

Irodalom