Entrópia maximum elve

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt hozzászólók, és jelentősen eltérhet a 2015. december 8-án felülvizsgált verziótól ; az ellenőrzések 32 szerkesztést igényelnek .

A maximális entrópia elve kimondja, hogy a bizonytalan környezet állapotainak legjellemzőbb valószínűségi eloszlásai azok, amelyek maximalizálják a választott bizonytalansági mértéket egy adott, a környezet "viselkedésére" vonatkozó információra. D.Gibbs először használt ilyen megközelítést a részecskék fizikai együtteseinek szélsőséges eloszlási függvényeinek meghatározására . Ezt követően E. Janes egy formalizmust javasolt a valószínűségi változók eloszlásának ismeretlen törvényeinek visszaállítására a Shannon-entrópia maximumának feltételeire vonatkozó korlátozások jelenlétében .

Történelem

Tekintsünk egy diszkrét valószínűségi változót , amely valószínűségi értékeket vehet fel . A valószínűségek nem ismertek. De egy adott valószínűségi változó valamely függvényének matematikai elvárása ismert: . Ezen információk alapján mi a függvény várható értéke ?

Első pillantásra a feladat megoldhatatlannak tűnik, hiszen előtte ismerni kell a valószínűségi eloszlást , és a kezdeti információ nem elegendő az összes valószínűség megtalálásához . A függvény várakozási egyenlete a normalizációs egyenlettel együtt az egyenletrendszer összeállításához szükséges egyenletek közül csak kettőt ad meg .

A valószínűségi eloszlás meghatározásának ez a problémája olyan esetekben, amikor egy valószínűségi változóról kevés információ áll rendelkezésre, vagy nincs információ, egyidős magával a valószínűség-elmélettel. Laplace Az elégtelen ész elve egy ilyen kiválasztási kritériumot próbált javasolni: ez az, hogy két eseményt egyformán valószínűnek kell tekinteni, hacsak nincs ok az ellenkezőjét hinni.

Megjegyzendő [1] , hogy a statisztika és az axiomatikus valószínűség-elmélet kapcsolatának két különböző megközelítése van. A gyakorisági (frekvencia) megközelítés a valószínűséget frekvenciahatárnak tekinti , a valószínűség pedig olyasvalami, ami leírja a bináris események végtelen nagy halmazainak tulajdonságait. A bayesi megközelítés általánosítja a gyakori megközelítést, mivel a valószínűség új jelentését posztulálja, mint bármely bináris kísérlet kvantitatív jellemzőjét. Ez ugyanazokat az eredményeket adja az együttesek leírásában, mint a gyakori megközelítés, de lehetővé teszi, hogy kvantitatív becsléseket adjunk olyan bináris kísérletekre, amelyek kimenetele előre nem ismert, és javítsuk a becsléseket, amint új információk állnak rendelkezésre az eredményekről; Mindennek nincs értelme a gyakori felfogás szerint.

Laplace például úgy vélte, hogy a világon nincs semmi véletlenszerű, és ha van információ az események okairól, akkor a következmények (maguk az események) 100%-os pontossággal megjósolhatók ( laplaci determinizmus ). Ezt a valószínűségi megközelítést egymástól függetlenül dolgozta ki D. Gibbs fizikus ( Gibbs statisztikai mechanikájában ) és K. Shannon matematikus (az információelmélet fejlesztésében ). Mindkettő kapott egy értéket, amely egy esemény kimenetelével kapcsolatos bizonytalanságot fejezi ki (vagy más szóval egy valószínűségi eloszlás bizonytalanságának mértékét), amelyet entrópiának neveztek, és hasonló képletekkel számították ki. Erre a hasonlóságra E. T. Janes fizikus 1957-ben két közleményében is felhívta a figyelmet [1] [2] .

Szigorúan véve Gibbs nem volt úttörő a fizikai entrópia fogalmának kidolgozásában. Az entrópia fogalmát R. Clausius fizikus javasolta , majd L. Boltzmann fizikus dolgozta ki , és mindegyik megkapta a saját entrópiafüggvényét. Clausius termodinamikai koncepciókkal dolgozott, míg Boltzmann a molekuláris fizikát és a statisztikai mechanikát dolgozta ki.

Hasonlóképpen Shannon G. Nyquist és R. Hartley eredményeire alapozta munkáját , akik lefektették az információelmélet alapjait.

Funkcionalitás

Tételezzük fel, hogy egy esemény véletlenszerű kísérletben előfordulhat, vagy nem. Ha az esemény nem következett be, akkor feltételezzük, hogy az ellenkező esemény történt . Így az események és események  egy teljes eseménycsoportot alkotnak, ami azt jelenti, hogy ezek összeegyeztethetetlen események, és összegükben a valószínűségük egyenlő eggyel: .

Ha az eseményről egyáltalán nem tudunk semmit , akkor a valószínűség szubjektív megközelítése szerint el kell fogadni, hogy a és az események  egyformán valószínűek: .

Amint bizonyos információkhoz jut, az egyik valószínűség elkezd felülmúlni a másikat, és a bizonytalanság csökkenni kezd. Végül a teljes információ megszerzésekor kiderül, hogy , (vagy fordítva: , ). Ekkor a bizonytalanság nullára csökken.

Jó lenne ezeknek a valószínűségeknek egy olyan függvényét kitalálni, amely teljes bizonytalansággal elérné a maximumot, és teljes bizonyossággal eltűnne. És minél nagyobb az egyik valószínűség a másiknál, annál nagyobb az „aszimmetria” közöttük, annál kisebb értéket vesz fel ez a függvény.

Ezt a függvényt (funkcionális) az eloszlás entrópiájának vagy az eloszlás bizonytalanságának nevezzük. Szigorúan véve az entrópia csak a bizonytalanság mértéke, nem maga a bizonytalanság. De itt minden ugyanaz, mint a valószínűségek esetében: a valószínűség egyszerre egy esemény lehetősége és ennek a lehetőségnek a mértéke. Elvileg helyes ezt-azt mondani.

Ilyen függvénynek tekinthetjük például az események valószínűségének és a szorzatát . Jelölje és vegye figyelembe a függvényt . Mivel  egy fordított parabola az origón és a ponton halad át , a maximumát a -nál éri el .

Továbbá, ahogy a valószínűségek "aszimmetriája" növekszik, fokozatosan csökken, míg végül nullára nem változik a vagy -on .

Megjegyzendő, hogy a szimmetria miatt , mert nem mindegy, hogy a két esemény közül melyiknek van valószínűsége , és melyiknek a valószínűsége .

Másrészt (0,21<0,24), mert ebben a második esetben a valószínűségek "aszimmetrikusabbak", mint az első esetben.

Vegyük észre, hogy a függvény , ahol  valamilyen együttható, megbirkózik a rá rótt „kötelezettségekkel” is: maximumot at és minimumot (nulla) ér el és . Ez azt jelenti, hogy a kívánt funkcionális egy bizonyos együtthatóig meghatározható.

A teljes eseménycsoportot most három esemény alkotja. Lehetséges ebben az esetben a valószínűségeik szorzatát entrópiának tekinteni, sőt bizonyítható, hogy ez a szorzat akkor éri el maximumát, ha minden valószínűség egyenlő egymással: .

Itt azonban van egy baj. Három esemény maximális entrópiája  - ami kisebb, mint két esemény maximális entrópiája, ami . És szeretném, ha ez fordítva lenne: minél több az esemény, annál nagyobb a bizonytalanság.

Egy másik, komolyabb probléma, hogy ha legalább egy esemény valószínűsége nulla, akkor a valószínűségek teljes szorzata automatikusan nullává válik. Vagyis a bizonytalanság eltűnik, nullával egyenlővé válik egy ilyen függvény szerint, pedig valójában nem az. A bizonytalanságnak el kell tűnnie, ha egy kivételével minden valószínűség nulla, és ez az egyetlen valószínűség egyenlő eggyel. Mindazonáltal két eredményre egy ilyen funkció meglehetősen jól használható. De két eredményhez és nincs szükség funkcionálisra: ha ismert egy valószínűségi változó eloszlásának elvárása, akkor a várható egyenlet a normalizálási feltétellel együtt csak egy két egyenletrendszert ad, amelyekből és egyértelműen megtalálható . Ha az eloszlásról egyáltalán nem tudunk semmit, akkor a valószínűségek egyenlővé válnak egymással, és ez minden funkcionális nélkül megtehető.

Shannon entrópiája

Claude Shannon három feltételt támasztott a szükséges függvényhez [3] :

  1. a változók folytonos függvényének kell lennie ;
  2. ha minden valószínűség egyenlő, akkor a függvény monoton növekvő függvénye . Más szóval, ;
  3. összetételi törvény. Ahelyett, hogy közvetlenül megadná az események valószínűségét, az elsőt csoportosíthatja egy eseményként a megfelelő valószínűséggel . A többi olyan, mint a második esemény valószínűséggel . Ekkor a függvénynek engedelmeskednie kell a feltételnek ;

Az összetétel törvénye különös figyelmet igényel, hiszen ennek alapján alakul tovább a függvény formája . Az ötlet a következő.

A véletlenszerű kísérlet két egymást követő szakaszra oszlik. Az első szakaszban a kimenetek első (előtt ) vagy második (utána ) részét választják ki valószínűségekkel és . A második szakaszban magát az eredményt választják ki az eredmények kiválasztott részéből. Ebben az esetben a kiválasztott rész végeredménye már feltételes valószínűségekkel van kiválasztva , vagyis feltéve, hogy ez a rész (jelen esetben az első rész) ki van választva. Maga Shannon azt mondja, hogy ha a választás két szakaszra esik, akkor a kezdeti entrópiának az egyes entrópiák, azaz a feltételes entrópiák súlyozott összegének kell lennie.

Az általános jelentése az, hogy ha az első szakaszban véletlenszerű választás történik, akkor a valószínűségek és a vagy értékeket veszik , és a további bizonytalanság csak a feltételes entrópiák egyikével egyenlő.

Példaként vegyünk két grafikont:

A bal oldali grafikonon három kimenet látható , , valószínűségekkel , amelyek egy teljes eseménycsoportot alkotnak (azaz ). A jobb oldali grafikonon először két lehetőség közül választunk, mindegyik valószínűséggel . Ha a második lehetőséget választjuk, akkor egy másik választás és valószínűségekkel történik . Az entrópiáknak mindkét grafikonon azonosnak kell lenniük, mivel végül ugyanazokat az eredményeket kapjuk azonos valószínűséggel. Az összetétel törvénye szerint azt írjuk .

Itt ugyanis az egyetlen eseményből álló, száz százalékos valószínűséggel bekövetkező teljes eseménycsoport nulla bizonytalanságot generál. Ugyanakkor maga Shannon szerint az együttható azért jelenik meg, mert a második választás az esetek felében jelenik meg.

Az összetétel törvényében az első szakasz nem két lehetőségből állhat, hanem több lehetőségből, megfelelő valószínűséggel , , , …

Az összetétel törvénye az entrópia additív tulajdonságának egyfajta általánosítása, bár nem következik közvetlenül ebből a tulajdonságból. Valójában álljon néhány kísérlet hat egyformán valószínű kimenetelből. Osszuk ezeket az eredményeket három egyenlő részre: az első szakaszban a három rész egyikét választják ki, a második szakaszban a megfelelő részen belüli eredményt. Akkor írhatsz .

A kapott egyenlet a következőképpen írható át:

.

Nyilván általánosságban .

De ugyanez az eredmény más megfontolásokból is elérhető.

Tegyük fel, hogy van egy véletlenszerű kísérlet azonos valószínűséggel, és egy másik véletlenszerű kísérlet ugyanolyan valószínűséggel. Legyen ennek a két véletlenszerű kísérletnek semmi köze egymáshoz. De mindenesetre egy kombinált kísérletnek tekinthetők, amelyben külön eredmény, hogy az első kísérlet edik eredménye és a második kísérlet harmadik eredménye következett be. Egy ilyen kombinált kísérletben már vannak kiegyensúlyozott eredmények. Mivel a két kísérlet bizonytalansága nem változhat a nézőpont változásától függően, akkor .

Ennek eredményeképpen , ahol  egy nem negatív egész szám. Ha , akkor az utolsó egyenlőség alakot ölt , miközben valódi egyenlőség marad.

Az összetétel törvénye lehetővé teszi, hogy függvények súlyozott összegeként fejezzük ki egy valószínűség-eloszlás entrópiáját, amelyben minden valószínűség racionális szám . Valóban, legyen az összeférhetetlen események teljes csoportja , , …, valószínűségekkel , ahol , , természetes számok, . Aztán lehet írni

.

Ebből az egyenletből már ki lehet fejezni .

Valójában nem tudni, hogy Shannon pontosan honnan vette az összetétel törvényét. Talán csak azt akarta, hogy az entrópiája hasonló legyen Hartleyéhez, és kitalált egy olyan feltételt (összetételtörvény), amelyből egyedülálló módon megkapja Shannon entrópiáját.

Tétel:

az egyetlen függvény , amely teljesíti a rá rótt három Shannon-feltételt, az alakja , ahol  bármely pozitív állandó, és a logaritmus bármely bázisnál nagyobb, mint egy.

Bizonyíték .

A bizonyítás a függvény formájának megállapítására redukálódik .

Bármely természetes és tetszőlegesen nagy természetes , lehet találni egy olyan természetes és nem negatív egész számot , amely (ez nyilvánvaló). Az egyenlőtlenség mindkét oldalát potencírozva és -vel osztva megkapjuk , ahonnan . Mivel a természetes logaritmus alapja nagyobb egynél, az egyenlőtlenségek előjele nem változik.

Másrészt a monotonitása alapján írhatunk , , ahonnan hasonlóan , . Akkor írhatsz . Ha átlépjük a határértéket , akkor megkapjuk . Ezért ahol  egy tetszőleges pozitív állandó,  a logaritmus tetszőleges természetes bázisa (egynél nagyobb). A konstans tetszőlegessége nemcsak azzal függ össze, hogy a számlálóban és a nevezőben redukálódik, hanem azzal is, hogy a logaritmus alapját tetszőlegesen választják ki. Léphetsz a természetes logaritmusra, és megkaphatod . Ez arra utal, hogy a logaritmus alapjának nem kell természetes számnak lennie. Továbbá a függvény függvényben való ábrázolását felhasználva felírhatjuk, mivel bármely valós szám tetszőleges pontossággal közelíthető egy racionális számmal, és maga a függvény folytonos (azaz kicsivel jelentéktelenül változik) az argumentum változása), Shannon ezt a képletet javasolta a valós számok által adott valószínűségekhez.

A tétel bizonyítást nyert .

Ha a valószínűség nulla, akkor a szorzat határát nullára kell  tekinteni :

Shannon maximális entrópiája és a Lagrange-szorzó módszer

Bizonyítható [4] , hogy a Shannon-entrópia egyenletes eloszláson vesz fel maximális értéket. Ennek bizonyítására megtaláljuk a Shannon-entrópia feltételes maximumát a normalizálási feltétel alatt .

Ehhez a Lagrange-szorzó módszert használjuk a feltételes szélsőségek meghatározásához. Ez a módszer röviden a következő.

Tegyük fel, hogy meg kell találni egy lokális extrémumát olyan változók folytonos függvényének, amelyek minden változóra vonatkozóan parciális deriváltjai vannak, feltéve, hogy ,…, , ahol ,…  olyan folytonos függvények, amelyeknek az összes változóra parciális deriváltja van, . Ekkor a Lagrange-függvény a formából áll , ahol a számokat Lagrange-szorzóknak nevezzük.

A feltételes szélsőség egy bizonyos ponton való létezésének szükséges feltétele a nullával való egyenlőség vagy a Lagrange-függvény összes parciális deriváltjának nemléte ezen a ponton. Ezért a Lagrange-függvény nullával egyenlő parciális deriváltjaiból, valamint az extrémumra támasztott feltételekből rendszert állítunk össze és oldunk meg. A rendszer megoldása (ha létezik) az extrémum koordinátája, valamint a Lagrange-szorzók értékei.

A Shannon-entrópia esetében a Lagrange-függvény alakja: .

Írjuk fel az egyenletrendszert a szélsőség létezéséhez szükséges feltétellel:

Megoldva a következőket kapjuk:

Mivel minden egyenlet azonos, akkor , .

Tehát az egyetlen pont, ahol szélsőség létezhet. Tekintettel arra, hogy a függvény folytonos és nem negatív határozott, a minimális nulla értéket véve (abban az esetben, ha az egyik valószínűség egyenlő eggyel, a többi pedig nulla), akkor a talált szélsőérték a globális feltételes maximum, és maga a maximum egyenlő .

Az is igazolható, hogy az inkompatibilis elemi eredmények valószínűségeinek halmazában a két valószínűségnek az egymáshoz igazítása felé történő bármilyen változása (anélkül, hogy a kimenetelek száma megváltozna), növeli az eloszlás entrópiáját.

Könnyű bizonyítani. Mivel csak két valószínűség változik, például és , a többi valószínűség változatlan marad. Ezért az entrópiaképletben szereplő kifejezések, amelyek más valószínűségekhez kapcsolódnak, változatlanok maradnak, és nem befolyásolják az entrópia növekedését. Ugyanakkor az összeg is változatlan marad (ugyanezért). Ezért elegendő csak két összeférhetetlen kimenetel bizonyítását elvégezni, amelyek egy teljes eseménycsoportot alkotnak - akkor az állítás tetszőleges számú kimenetelre tekinthető bizonyítottnak.

Jelölje és vegye figyelembe a függvényt .

A vs. plot nagyon hasonlít az origón áthaladó fordított parabolához. A maximumot a pontban érjük el . Ezenkívül ez a függvény tükörszimmetrikus a vonalhoz képest . Ez abból következik, hogy . Ezért a grafikon alapján nyilvánvaló, hogy a kiegyenlítés felé mutatkozó valószínűségek bármilyen változása az entrópia növekedéséhez vezet.

Folyamatos eloszlás entrópiája

Shannon eredetileg a következő képletet írta le [3] a folytonos eloszlás entrópiájára, amelyet differenciális entrópiának is neveznek :

.

Itt  látható a valószínűségi változó ismeretlen valószínűségi sűrűség-eloszlásfüggvénye . (Ha , akkor az integrandust ezen a ponton a határértéke helyettesíti .) Azonban a diszkrét eloszlás entrópiájára vonatkozó Shannon-képlettől eltérően ez a képlet nem semmilyen származtatás eredménye (Shannon egyszerűen az összeg előjelét az előjelre cserélte az integrál). És szigorúan véve nem vezethető le a diszkrét entrópia képletről a folytonos entrópia képletére történő egymást követő átmenettel a Riemann-integrál [5] integrál parciális összegeinek határértékének kiszámításával (végtelen értéket kapunk). Mindazonáltal a differenciális entrópia jelentése az átlagos bizonytalanság egy tetszőleges eloszlási törvényű valószínűségi változó kiválasztásában, mínusz egy egységnyi intervallumban egyenletesen eloszló valószínűségi változó bizonytalansága.

A differenciális entrópia mellett az angol is ismert.  Kullback–Leibler divergencia és angol.  Principle_of_maximum_entropy#Continuous_case . De tovább, a maximális entrópia elvének magyarázatához pontosan a differenciális entrópiát fogjuk használni.

Maximális differenciális entrópia és a variációk számítása

Bizonyítható, hogy a differenciális entrópia egyenletes eloszláson vesz fel maximális értéket. Ennek bizonyítására megtaláljuk a differenciális entrópia feltételes maximumát, feltéve, hogy .

Ilyen feltételek mellett olyan függvényt kell találni, hogy a differenciális entrópia integrál vegye fel a maximális értéket. Nyilvánvaló, hogy ebben az esetben maga a függvény alakja válik egyfajta változóvá, ezért szükséges a variációszámítás [3] használata , melynek fő feladata olyan függvény megtalálása, amelyen az adott függvény végpontot ér el. értékeket.

A variációs módszer hasonlít a Lagrange-módszerre, és röviden a következő. Adjunk meg egy függvényt egy folytonos első parciális deriváltokkal rendelkező integrandusszal , amelyet Lagrange-függvénynek nevezünk. Ha ez a függvény valamilyen függvényen eléri a szélsőértéket , akkor egy parciális differenciálegyenletnek kell teljesülnie , amelyet Euler-Lagrange egyenletnek nevezünk . Más szóval, ez az egyenlet szükséges feltétele annak, hogy a függvényen a funkcionális szélsőértéke létezzen . Ha a függvényre egy további alakfeltételt szabunk, akkor a kívánt szélsőértéket feltételesnek nevezzük, és a Lagrange-függvény a formát veszi fel, és ehhez az új függvényhez már meg kell oldani a differenciálegyenletet. A megtalált függvény nem csak a paramétertől, hanem a paramétertől is függ . Ezután be kell cserélni a feltételeket az integrálban, és meg kell találni .

Differenciális entrópia esetén a Lagrange-függvény alakja . Ekkor az Euler-Lagrange egyenlet a következő alakot veszi fel .

Ennek az egyenletnek a megoldása egy függvény , azaz egy állandója . Behelyettesítjük a feltételbe, és megkapjuk .

Nyilvánvaló, hogy egy ilyen egyenletnek nincsenek megoldásai, mint ahogy az is, hogy egy valószínűségi változót nem lehet egyenletesen elosztani a valós számok teljes tartományában. Minden lehetséges érték egy intervallumon feküdjön . Akkor honnan , . Mindenki más számára ez igaz .

Extrém disztribúciók

Önmagában a talált funkcionális (Shannon entrópia diszkrét vagy differenciális formában) még nem ad semmit. Mivel semmit sem tudunk a véletlenszerű kísérletek kimeneteléről, a maximális entrópia elve azt diktálja, hogy minden eredménynek egyenlő valószínűséget kell adni. Ha folytonos valószínűségi változóról beszélünk, akkor azt feltételezzük, hogy az egyenletes eloszlású. De egy ilyen találkozó végrehajtásához nincs szükség funkcionalitásra. A funkcionális csak a különböző eloszlások bizonytalanságainak mennyiségi összehasonlítását teszi lehetővé.

A maximális entrópia elvének értelme akkor kezd megjelenni, amikor a valószínűségi eloszlást korlátozzák. A maximális entrópia elve ebben az esetben az, hogy megtaláljuk a maximális entrópiát az előírt korlátozások mellett. Az így kapott eloszlást szélsőségesnek nevezzük.

Határozzuk meg az entrópia maximumát olyan esetekben, amikor egy valószínűségi változó eloszlására bizonyos korlátozások vonatkoznak, például ismertek bizonyos momentumai. A Lagrange-szorzók módszerének és a variációszámítási módszernek a használatakor látható lesz, hogy:

A valószínűségi változóról (diszkrét és folytonos esetek) semmit sem tudunk

Ebben az esetben a maximális entrópia elve azt írja elő, hogy a valószínűségi változó egyenletesen oszlik el. Korábban már bemutattuk, hogy a Shannon-entrópia bármilyen (diszkrét vagy folytonos) formában a lehető legnagyobb értéket veszi fel egy ilyen eloszláson.

Csak a matematikai elvárás ismert (diszkrét eset)

Tételezzük fel, hogy csak valamely valószínűségi változó diszkrét valószínűségi eloszlásának elvárását ismerjük : . Mi az eloszlás ebben az esetben? A terjesztésre további korlátozások vonatkoznak:

A maximális entrópia elve szerint ilyen feltételek mellett szükséges a függvény maximalizálása

Összeállítjuk a Lagrange függvényt, és megkeressük egy lehetséges szélsőség pontjait:

A parciális deriváltak és az előírt feltételek rendszere a következőképpen alakul:

Az első egyenletből kivonva -e -t kapunk .

Az eredményül kapott egyenletet a normalizációs feltétellel rendelkező rendszerré kombinálva és megoldva a következőt kapjuk:

, honnan .

Most a th egyenletből következik .

Végül a várakozási egyenlet alapján felírhatjuk , ahonnan következik .

Végül az eredeti rendszer a következőképpen ábrázolható:

Meglehetősen könnyű bizonyítani, hogy a rendszer második egyenletének megoldása mindig létezik és egyedi, bár nem mindig ábrázolható az argumentum explicit függvényeként . Kívánt esetben (bár nem feltétlenül) a harmadik egyenletből is kifejezhető . De ami a legfontosabb, ha az első egyenletbe behelyettesít, diszkrét valószínűségi eloszlást kap a várakozással .

Mivel a talált megoldás egyedi, a talált pont nagy valószínűséggel az entrópia szélsősége, és ez a szélsőérték a globális feltételes maximum.

A talált valószínűségi eloszlást angolnak nevezzük . Boltzmann_eloszlás , amely Gibbs - disztribúcióként is ismert .  

Csak a második kezdeti momentum ismert (diszkrét eset)

Tegyük fel , hogy valamely valószínűségi változó diszkrét valószínűségi eloszlásának csak a második kezdeti momentuma ismert : . Mi az eloszlás ebben az esetben?

Nyilvánvaló, hogy ez az eset nem különbözik az előzőtől, kivéve, hogy az értékeket értékekkel kell helyettesíteni, helyettesíteni kell a -val . A végső elosztás így fog kinézni

Ebben az esetben könnyen belátható, hogy ha , akkor .

A várakozás és a második kezdeti momentum ismert (diszkrét eset)

A Lagrange függvénynek ebben az esetben a formája van

Az egyenletrendszer, amely a szélsőség létezésének szükséges feltétele, a következőképpen alakul:

. Eszembe lehet jutni

A megoldás létezésének és egyediségének bizonyítása ebben az esetben sokkal nehezebb. Továbbá a paraméterek megtalálásának problémája, valamint a rendszer második és harmadik egyenlete. Ha azonban a bizonyítás lehetséges, akkor az extrém eloszlás adott paraméterekkel csak a talált alakot kapja.

Csak a várható érték ismert (folyamatos eset)

Tételezzük fel, hogy csak valamely valószínűségi változó folytonos valószínűségi eloszlásának elvárását ismerjük : . Mi ebben az esetben a valószínűségi sűrűség-eloszlás függvénye?

A terjesztésre további korlátozások vonatkoznak:

A maximális entrópia elve szerint ilyen feltételek mellett szükséges a függvény maximalizálása

Összeállítjuk a Lagrange függvényt, és megtaláljuk , amelyre egy szélsőség lehetséges :

Az Euler-Lagrange egyenletnek ebben az esetben a következő alakja van .

Megoldása a függvény , vagyis a kitevő.

Nyilvánvaló, hogy egy ilyen függvény grafikonja alatti terület csak akkor lehet véges, ha legfeljebb egy integrálási határ irányul a végtelenbe. Ezért feltételezzük, hogy egy valószínűségi változó csak valamilyen véges vagy félvégtelen tartományban vehet fel értéket , nem feltétlenül egyszerűen összekapcsolva. Minden más ponton a függvény nullával egyenlő.

Az és az együtthatók értékének megtalálásához az eloszlásra támasztott feltételekből egyenletrendszert kell összeállítani és azt megoldani . A rendszer így néz ki:

és eszünkbe lehet juttatni .

Itt az összes integrál "le van véve", így egyedileg kifejezhető -  csak a területet kell pontosabban megadni . Ebben az esetben a talált megoldás egyedi.

Mivel az együttható egyedi módon van kifejezve -on keresztül , akkor egyedi. A megtalált megoldás egyedisége miatt a funkció maximalizálja a funkcionális . Ekkor a függvény alakja .

A talált eloszlást egy folytonos valószínűségi változó Boltzmann (vagy Gibbs) eloszlásának nevezzük.

Csak a második kezdeti momentum ismert (folyamatos eset)

Tegyük fel , hogy valamely folytonos valószínűségi változó valószínűségi eloszlásának csak a második kezdeti momentuma ismert : . Mi az eloszlás ebben az esetben?

Ebben az esetben a Lagrange függvény alakja .

Az Euler-Lagrange egyenlet alakja .

Megoldása a függvény .

Nyilvánvaló, hogy a gráf alatti terület csak abban az esetben lehet véges . Ha , akkor egyenletes eloszlást kapunk, amelyet már korábban figyelembe vettünk.

Az és az együtthatók értékének megtalálásához az eloszlásra támasztott feltételekből egyenletrendszert kell összeállítani, és meg kell oldani:

Mivel itt van egy határozott Euler-Poisson integrál , a rendszer így írható fel:

, honnan végre

Tehát az eloszlás normális eloszlás , nulla átlaggal és szórással .

A várakozás és a második kezdeti momentum ismert (folyamatos eset)

Ebben az esetben a Lagrange függvény alakja .

Az Euler-Lagrange egyenlet alakja .

Megoldása a függvény .

Vegyük újra .

A , , együtthatók értékeinek megtalálásához az eloszlásra támasztott feltételekből egyenletrendszert kell összeállítani és azt megoldani:

Egy szám integrálban lévő foka a következőképpen ábrázolható: , ahol , .

Akkor

,

ahol

.

Nyilvánvalóan az eloszlás varianciája .

Végül a függvényt felírhatjuk így is .

Tehát normális eloszlást kaptunk átlaggal és szórással .

Könnyen belátható, hogy kezdetben nem az eloszlás második kezdőmomentumát, hanem szórását lehetett beállítani, és így is normális eloszlást kaptunk volna a megadott paraméterekkel.

Extrém eloszlások táblázata

Az alábbi táblázatban minden felsorolt ​​eloszlás maximalizálja az entrópiát az eloszlásra támasztott feltételek mellett, amint azt a harmadik oszlop jelzi. A negyedik oszlop a valószínűségi változó definíciós tartományát mutatja.

Az extrém eloszlások táblázata
terjesztés Funkció

valószínűségek/sűrűség

valószínűségek

Korlátozások,

rárakva

terjesztés

Vidék

definíciók

véletlen

mennyiségeket

Egyenruha

(diszkrét)

Nem
Egyenruha

(folyamatos)

Nem
Bernoulli
Geometriai
Exponenciális
Laplace
angol  Aszimmetrikus_Laplace_eloszlás
Pareto
Normál
angol  Von_Mises_distribution
Rayleigh
Beta
Cauchy
angol  Chi_eloszlás
chi-négyzet
angol  Erlang_eloszlás
Gamma
lognormális
Maxwell
Weibulla
Többdimenziós

Normál


Binomiális
Poisson

Lásd még

Jegyzetek

  1. ↑ 12 Jaynes , ET Információelmélet és statisztikai mechanika  (angol)  // Physical Review  : folyóirat. - 1957. - 1. évf. II. sorozat , 2. sz. 4 . - P. 620-630 . - doi : 10.1103/PhysRev.106.620 . - .
  2. Jaynes, ET Információelmélet és statisztikai mechanika II  (angol)  // Physical Review  : folyóirat. - 1957. - 1. évf. II. sorozat , 2. sz. 2 . - 171-190 . o . - doi : 10.1103/PhysRev.108.171 . - .
  3. ↑ i. e. 123 _ _ Shannon. A kommunikáció matematikai elmélete . Az eredetiből archiválva : 2016. március 29.
  4. I.N. Beckman. Informatika. Előadások menete . — P. Az entrópia fogalmának kialakulásának szakaszai . Az eredetiből archiválva : 2016. december 13.
  5. V.A. Fursov. Információelmélet. - Samara: SGAU, 2011. - 15. o.

Irodalom

Linkek