Az információs entrópia egy bizonyos rendszer bizonytalanságának mértéke (a statisztikai fizikában vagy az információelméletben ), különösen az elsődleges ábécé bármely karakterének megjelenésének kiszámíthatatlanságát . Ez utóbbi esetben információvesztés hiányában az entrópia számszerűen megegyezik a továbbított üzenet szimbólumonkénti információmennyiségével .
Például egy orosz nyelvű mondatot alkotó betűsorozatban különböző betűk különböző gyakorisággal jelennek meg , így egyes betűk előfordulási bizonytalansága kisebb, mint másoké. Ha figyelembe vesszük, hogy egyes betűkombinációk (jelen esetben a -edik rendű entrópiáról beszélnek, lásd alább ) nagyon ritkák, akkor a bizonytalanság még tovább csökken.
Az információs bináris entrópiát információvesztés hiányában a Hartley képlet segítségével számítjuk ki :
,
ahol az ábécé ereje, az információ mennyisége az üzenet egyes szimbólumaiban. Egy olyan valószínűségi változó esetén , amely független véletlenszerű értékeket vesz fel valószínűségekkel ( ), a Hartley-képlet Shannon képletévé változik:
Ezt a mennyiséget átlagos üzenetentrópiának is nevezik . A mennyiséget parciális entrópiának nevezzük , amely csak az -e állapotot jellemzi.
Így a rendszer entrópiája a számmal rendelkező állapot (esemény) összes relatív előfordulási gyakoriságának ellentétes előjelű összege , megszorozva azok bináris logaritmusával [1] . Ez a diszkrét véletlenszerű események definíciója formálisan kiterjeszthető a valószínűségi sűrűségeloszlás által adott folytonos eloszlásokra , azonban az eredményül kapott funkcionális tulajdonságai kissé eltérőek lesznek (lásd a differenciálentrópiát ).
Általában az entrópia definíciójában a logaritmus alapja 1-nél nagyobb lehet (mivel egy csak egy karakterből álló ábécé nem közvetíthet információt); a logaritmus alapjának megválasztása határozza meg az entrópia mértékegységét. A kettes számrendszeren alapuló információs rendszerek esetében az információs entrópia (valójában információ) mértékegysége egy kicsit . A matematikai statisztika problémáiban kényelmesebb lehet a természetes logaritmus használata , amely esetben az információs entrópia egysége nat .
Claude Shannon azt javasolta, hogy az információnyereség egyenlő az elveszett bizonytalansággal, és meghatározta a mérési követelményeket:
Ezért az entrópiafüggvénynek teljesítenie kell a feltételeket
Shannon megmutatta [2] , hogy az egyetlen függvény, amely megfelel ezeknek a követelményeknek, az
ahol egy pozitív állandó (és valójában csak az entrópia mértékegységének kiválasztásához szükséges; ennek az állandónak a megváltoztatása egyenértékű a logaritmus alapjának megváltoztatásával).
Shannon megállapította, hogy az információforrásra alkalmazott entrópia mérése ( ) meg tudja határozni azt a minimális sávszélesség-követelményt, amely az információ kódolt bináris számok formájában történő megbízható továbbításához szükséges. A Shannon-képlet levezetéséhez ki kell számítani az ábrán szereplő "információmennyiség" matematikai elvárását az információforrásból. A Shannon-entrópia mértéke egy valószínűségi változó megvalósulásának bizonytalanságát fejezi ki. Az entrópia tehát az üzenetben található információ és az információ azon része közötti különbség, amely pontosan ismert (vagy nagymértékben megjósolható) az üzenetben. Példa erre a nyelv redundanciája – egyértelmű statisztikai minták vannak a betűk, egymást követő betűpárok, hármasok stb. megjelenésében (lásd Markov-láncok ).
A Shannon-entrópia meghatározása a termodinamikai entrópia fogalmához kapcsolódik . Boltzmann és Gibbs sokat dolgozott a statisztikai termodinamikán, ami hozzájárult az „entrópia” szó elfogadásához az információelméletben. Kapcsolat van a termodinamikai és az információs entrópia között. Például Maxwell démona is szembeállítja az információ termodinamikai entrópiáját, és tetszőleges mennyiségű információ megszerzése egyenlő az entrópia elvesztésével.
Egy valószínűségi változó entrópiája úgy is meghatározható, hogy először bevezetjük egy véges számú értékű valószínűségi változó eloszlásának koncepcióját: [3]
és saját információ :
Ekkor az entrópiát a következőképpen határozzuk meg:
Az információmennyiség és az entrópia mértékegysége a logaritmus alapjától függ: bit , nat , trit vagy hartley .
Az entrópia egy adatforrás valószínűségi modelljének kontextusában meghatározott mennyiség . Például egy érme feldobásának entrópiája van:
Egy olyan forrás esetében, amely csak "A" betűkből álló karakterláncot generál, az entrópia nulla: , és a lehetséges állapotok száma: a lehetséges állapot (érték) ("A"), és nem függ a karakterlánc alapjától. logaritmus. Ez is olyan információ, amelyet szintén figyelembe kell venni. Példa azokra a memóriaeszközökre , amelyek nullával egyenlő entrópiájú biteket használnak, de egy lehetséges állapotnak megfelelő információmennyiséggel , azaz nem egyenlő nullával, a ROM -ban rögzített adatbitek , amelyekben minden bitnek csak egy lehetséges . állapot .
Így például empirikusan megállapítható, hogy egy angol szöveg entrópiája karakterenként 1,5 bit, ami a különböző szövegeknél eltérő lehet. Az adatforrás entrópiájának mértéke az adatelemenkénti bitek átlagos bitszámát jelenti, amely az (adat)titkosításukhoz szükséges információvesztés nélkül, optimális kódolással.
Az ábécé valószínűségi eloszlása messze nem egyenletes . Ha az eredeti ábécé karaktereket tartalmaz, akkor összehasonlítható egy „optimalizált ábécével”, amelynek a valószínűségi eloszlása egyenletes. Az eredeti és az optimalizált ábécé entrópiájának aránya az eredeti ábécé hatékonysága , amely százalékban is kifejezhető. Az eredeti szimbolikus ábécé hatékonysága annak -ári entrópiájaként is meghatározható.
Az entrópia korlátozza a lehetséges legnagyobb veszteségmentes (vagy majdnem veszteségmentes) tömörítést, amely egy elméletileg tipikus halmaz vagy a gyakorlatban Huffman -kódolás , Lempel-Ziv-Welch kódolás vagy aritmetikai kódolással valósítható meg .
Általában egy kezdeti ábécével és diszkrét valószínűség- eloszlással rendelkező forrás b - ár entrópiáját ( ahol b 2, 3, …) a következőképpen adjuk meg:
Különösen, amikor , a szokásos bináris entrópiát kapjuk, bitben mérve . -val tritekben mért hármas entrópiát kapunk (egy tritnek van egy információforrása három kiegyenlíthető állapottal). Amikor natsban mért információt kapunk .
Ha az ábécé karaktereinek sorrendje nem független (például a franciában a „q” betű után szinte mindig „u”, a „peredovik” szó után pedig a szovjet újságokban a „gyártás” ill. Általában a „munka” követését követték, az ilyen szimbólumok sorozatát hordozott információ mennyisége (és ebből következően az entrópia) kisebb. A feltételes entrópiát használják az ilyen tények figyelembevételére.
Az elsőrendű feltételes entrópia (hasonlóan az elsőrendű Markov-modellhez ) az ábécé entrópiája, ahol ismertek az egyik betű megjelenésének valószínűsége a másik után (vagyis a kétbetűs kombinációk valószínűsége). :
ahol az előző karaktertől függő állapot és az adott valószínűség , amely az előző karakter volt.
Például az orosz nyelvhez "e" betű nélkül [4] .
A privát és általános feltételes entrópiák tekintetében az információveszteség teljes mértékben le van írva a zajos csatornán történő adatátvitel során. Ehhez úgynevezett csatornamátrixokat használnak . A forrásoldali veszteség leírásához (azaz az elküldött jel ismert), vegye figyelembe annak feltételes valószínűségét , hogy a vevő megkapja a szimbólumot , feltéve, hogy a szimbólumot elküldték . Ebben az esetben a csatornamátrix a következő formájú:
… | … | |||||
---|---|---|---|---|---|---|
… | … | |||||
… | … | |||||
… | … | … | … | … | … | … |
… | … | |||||
… | … | … | … | … | … | … |
… | … |
Az átló mentén elhelyezkedő valószínűségek a helyes vétel valószínűségét írják le, és bármely sor elemeinek összege 1-et ad. Az egy átvitt jelre eső veszteségeket a részleges feltételes entrópia segítségével írjuk le:
Az összes jel átviteli veszteségének kiszámításához a teljes feltételes entrópiát használjuk:
a forrás oldali entrópiát jelenti, a vevőoldali entrópiát hasonlóan tekintjük: ehelyett , mindenhol feltüntetve (a karakterlánc elemeit összegezve megkaphatja a , az átló elemei pedig azt a valószínűséget, hogy pontosan a karakter az elküldésre került, vagyis a helyes átvitel valószínűsége).
A kölcsönös entrópia vagy egyesülési entrópia az összekapcsolt rendszerek entrópiájának kiszámítására szolgál (a statisztikailag függő üzenetek együttes megjelenésének entrópiája), és jelölése , ahol az adót és - a vevőt jellemzi.
Az átvitt és vett jelek kapcsolatát közös eseményvalószínűségek írják le , és csak egy mátrix szükséges a csatorna jellemzőinek teljes leírásához:
… | … | ||||
… | … | ||||
… | … | … | … | … | … |
… | … | ||||
… | … | … | … | … | … |
… | … |
Egy általánosabb esetben, amikor nem egy csatorna van leírva, hanem a kölcsönható rendszerek egésze, a mátrixnak nem kell négyzetesnek lennie. A számmal rendelkező oszlop összes elemének összege adja a számot , a számot tartalmazó sor összege a, a mátrix összes elemének összege pedig 1. Az események együttes valószínűsége és a szorzatként kerül kiszámításra. a kezdeti és feltételes valószínűség:
A feltételes valószínűségeket a Bayes-képlet állítja elő . Így minden adat rendelkezésre áll a forrás és vevő entrópiák kiszámításához:
A kölcsönös entrópiát az összes mátrixvalószínűség egymás utáni sor (vagy oszlop) összegzésével számítják, szorozva a logaritmusukkal:
A mértékegység bit / két karakter, ez azért van, mert a kölcsönös entrópia leírja a bizonytalanságot egy karakterpárra: küldött és fogadott. Egyszerű átalakításokkal azt is megkapjuk
A kölcsönös entrópiának megvan az információ teljességének a tulajdonsága - minden figyelembe vett mennyiség megszerezhető belőle.
1948- ban, miközben az információ zajos kommunikációs csatornán keresztül történő racionális továbbításának problémáját vizsgálta, Claude Shannon forradalmi valószínűségi megközelítést javasolt a kommunikáció megértéséhez, és megalkotta az entrópia első valóban matematikai elméletét . Szenzációs ötletei gyorsan alapul szolgáltak két fő terület kidolgozásához: az információelmélethez , amely a valószínűség és az ergodikus elmélet fogalmát használja az adat- és kommunikációs rendszerek statisztikai jellemzőinek tanulmányozására, valamint a kódoláselméletet , amely elsősorban algebrai és geometriai eszközöket használ. hatékony kódok kidolgozására.
Az entrópia fogalmát mint a véletlenszerűség mértékét Shannon vezette be " A Mathematical Theory of Communication " című tanulmányában, amely két részben jelent meg a Bell System Technical Journal 1948-ban.
Szótárak és enciklopédiák | ||||
---|---|---|---|---|
|