Renyi entrópia

Az információelméletben a Rényi-entrópia , a Shannon - entrópia általánosítása , egy funkcionális család, amelyet valamely rendszer mennyiségi sokféleségének, bizonytalanságának vagy véletlenszerűségének mérésére használnak. Renyi Alfrédról kapta a nevét .

Ha egy rendszernek van egy diszkrét halmaza rendelkezésre álló állapotokból , ami megfelel a valószínűségi eloszlásnak (vagyis annak a valószínűsége , hogy a rendszer állapotba kerül ), akkor a rendszer (at és ) paraméterével rendelkező Rényi-entrópiát a következőképpen definiáljuk:

,

ahol a szögzárójelek jelölik a matematikai elvárást eloszlás alapján ( a valószínűsége, hogy a rendszer egy adott állapotba kerül, mint valószínűségi változó ), a logaritmus a 2. bázisban (bitekben történő számoláshoz) vagy egy másik megfelelő bázisban (nagyobbnak kell lennie) mint 1). A logaritmus alapja határozza meg az entrópia mértékegységét. Tehát a matematikai statisztikában általában a természetes logaritmust használják .

Ha minden valószínűség , akkor bármelyik esetén a Rényi-entrópia . Ellenkező esetben -entrópia csökken a függvényében . Ráadásul a magasabb értékek (a végtelenbe menve) olyan Renyi-entrópia értékeket adnak, amelyeket nagyrészt csak az események legnagyobb valószínűsége határoz meg (azaz a kis valószínűségű állapotok entrópiához való hozzájárulása csökken). A határérték köztes esete adja meg a Shannon-entrópiát, amely speciális tulajdonságokkal rendelkezik. Az alacsonyabb (nullára menő) értékek olyan Rényi-entrópiaértéket adnak, amely egyenletesebben, kevésbé a valószínűségüktől függően súlyozza a lehetséges eseményeket. És amikor megkapjuk a maximális lehetséges -entrópiát , akkor az eloszlástól függetlenül egyenlő (ha csak ).

A paraméter jelentése informálisan úgy írható le, mint a funkcionális érzékenysége a rendszer állapotának az egyensúlyi állapottól való eltérésére: minél nagyobb , annál gyorsabban csökken az entrópia, amikor a rendszer eltér az egyensúlyi állapottól. A korlátozás célja az entrópia növekedése, amikor a rendszer egy egyensúlyi (valószínűbb) állapothoz közelít. Ez a követelmény természetes az entrópia fogalma számára . Megjegyzendő, hogy a Tsallis entrópiánál , amely egyenértékű a Renyi-entrópiával a -től független monoton transzformációig , gyakran elhagyják a megfelelő megszorítást, míg a paraméter negatív értékeinél az entrópia maximalizálása helyett annak minimalizálása. használt.

A Rényi-entrópia fontos szerepet játszik az ökológiában és a statisztikában, meghatározva az úgynevezett diverzitási indexeket . A Rényi-entrópia a kvantuminformációkban is fontos, és a komplexitás mértékeként használható . A Heisenberg-láncban a Rényi-entrópiát moduláris függvények alapján számították ki attól függően . Ezek a fraktáldimenziós kitevők spektrumához is vezetnek .

H α α bizonyos meghatározott értékeire

Néhány speciális eset

.

Ezt az entrópiát néha Hartley entrópiának is nevezik . Használják például a Boltzmann-elv megfogalmazásakor .

. ,

ahol és független valószínűségi változók, amelyek egyenlően oszlanak el a halmazon ( ) . A másodfokú entrópiát a fizikában , a jelfeldolgozásban és a közgazdaságtanban használják .

,

amit min-entrópiának nevezünk , mert ez a legkisebb értéke . Ez az entrópia is degenerált eset, hiszen értékét csak a legvalószínűbb állapot határozza meg.

Egyenlőtlenségek α különböző értékeire

Az utolsó két esetet a . Másrészt a Shannon-entrópia tetszőlegesen magas lehet egy fix min-entrópiával rendelkező X eloszlás esetén.

mert . , mert . Jensen egyenlőtlensége szerint .

Renyi eltérései (divergenciai)

Rényi az entrópiacsaládon kívül a Kullback–Leibler divergenciát általánosító divergencia mértékek (divergenciák) körét is meghatározta . Ennek a szakasznak a képletei általános formában vannak felírva - logaritmuson keresztül tetszőleges bázisban. Ezért meg kell értenie, hogy minden adott képlet egyenértékű funkcionális család egy állandó (pozitív) tényezőig.

A Rényi-divergencia paraméterrel , ahol és , az eloszláshoz viszonyított eloszlás (vagy "távolság -tól " ) a következőképpen definiálva:

vagy (formálisan, a valószínűségek normalizálásának figyelembevétele nélkül)

, .

A Kullback–Leibler divergenciához hasonlóan a Rényi-divergencia sem negatív -ra .

Néhány speciális eset

 : mínusz a valószínűségek összegének logaritmusa úgy, hogy a megfelelő .

Pénzügyi (játék) értelmezés

Tekintsünk egy játékot (lottót) valamilyen véletlenszerű változó kitalálásával. A hivatalos nyerési arányok ismertek és valószínűségi eloszlásként kerülnek közzétételre . Eközben a valós valószínűségi eloszlás nem feltétlenül esik egybe a -val . A valódi eloszlás ismerete lehetővé teszi a játékos számára, hogy keressen. A várható tőkenövekedés exponenciális. A helyes eloszlást figyelembe véve a játékos kiszámíthatja (játékkörönként) a tőke exponenciális növekedési ütemére vonatkozó matematikai elvárásait [Soklakov2020 ]:

Várható növekedés


ahol az Arrow-Pratt kockázatkerülés relatív mértékét jelöli.

A valós eloszlást jelölve (ami nem feltétlenül esik egybe a játékos véleményével ), a tényleges növekedés a többszörös játék limitjében számolható [Soklakov2020 ]:

Tényleges magasság

Miért speciális az α = 1 eset

A Shannon entrópiának és a Kullback-Leibler divergenciának megfelelő értéke azért különleges, mert csak ebben az esetben lehet a közös valószínűségi eloszlásból kivonni az A és X változókat úgy, hogy

entrópiára, és

eltérésért.

Ez utóbbi azt jelenti, hogy ha olyan eloszlást keresünk, amely minimálisra csökkenti néhány mögöttes mérőszám eltérését , és olyan új információt kapunk, amely csak az eloszlást érinti , akkor az eloszlást nem érintik a változtatások .

Általános esetben a Rényi-divergencia tetszőleges értékekkel kielégíti a nem-negativitás, a folytonosság és az invariancia feltételeit a valószínűségi változók koordinátáinak transzformációja során. Bármely Rényi-entrópia és divergencia fontos tulajdonsága az additivitás: amikor és függetlenek, ebből az következik, hogy

és

.

A legerősebb esettulajdonságok , amelyek magukban foglalják a feltételes információ és a kölcsönös információ meghatározását a kommunikációelméletből, nagyon fontosak lehetnek más alkalmazásokban, vagy egyáltalán nem fontosak, az adott alkalmazások követelményeitől függően.

Renyi kereszt entrópia

Két valószínűségű és ( ) eloszlás keresztentrópiája általános esetben különböző módon definiálható (alkalmazástól függően), de meg kell felelnie a feltételnek . Az egyik definíció (a Shannon-kereszt entrópiája hasonló tulajdonsággal rendelkezik ):

.

A Renyi A. által javasolt másik meghatározás a következő megfontolásokból nyerhető. A rendszerállapotok effektív számát a súlyokkal ellátott értékek geometriai súlyozott átlagaként határozzuk meg :

.

Ez magában foglalja a Shannon-féle keresztentrópia kifejezését

.

Hasonló módon érvelve a rendszerállapotok effektív számát a súlyokkal és paraméterekkel ellátott értékek súlyozott hatványtörvényes átlagaként definiáljuk :

.

Így a Renyi-kereszt entrópiának megvan a formája

.

Folyamatos eset

A Shannon-entrópia formális általánosítására folytonos eloszlás esetére a differenciális entrópia fogalmát használjuk . A Rényi-féle differenciál entrópia pontosan ugyanígy definiálható:

.

A folytonos esetben a Rényi-divergencia egyben a Kullback–Leibler-divergencia általánosítása is, és ennek a formája

.

A keresztentrópia definíciója, amelyet Renyi A. javasolt, folytonos esetben a következőképpen alakul

.

A fenti , és képletekben néhány valószínűségi sűrűségfüggvény az intervallumon definiált , és feltételezzük , hogy , .

Irodalom