Szemantikai információk

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2018. március 30-án felülvizsgált verziótól ; az ellenőrzések 4 szerkesztést igényelnek .

A szemantikus információ  az információ szemantikai aspektusa, amely az üzenet formája és szemantikai tartalma közötti kapcsolatot tükrözi.

Claude Shannon munkáiból kiindulva általánosan elfogadott [1] , hogy az információ fogalma három aspektusból áll: szintaktikai , szemantikai és pragmatikai . A szintaktikai az információ tárolásának és továbbításának technikai problémáihoz, a szemantikai az üzenetek igazságának jelentéséhez és jelentéséhez, a pragmatikus az információnak az emberek viselkedésére gyakorolt ​​​​hatásának kérdéseit érinti. A szemantikai információ elmélete az emberi tudás területét tárja fel, és a mesterséges intelligencia fejlődésének szerves részét képezi [2] .

Történelem

A szemantikai információ fogalmának kialakulása

A szemiotika 19. századi megjelenése megteremtette az előfeltételeket a szemantikai információ fogalmának megjelenéséhez [3] . Végül a Claude Shannon által 1948-ban megalkotott matematikai kommunikációelmélet megjelenése után öltött testet [4] . Shannon elmélete, amelyet ma a szintaktikai információ elméletének tekintenek, teljesen figyelmen kívül hagyja az üzenet jelentését. Ekkor jött rá a szemantikai információ elméletének megalkotásának szükségessége.

Bar-Hillel és Carnap elmélete

1952-ben Yehoshua Bar-Hillel és Rudolf Carnap a logikai valószínűségek fogalmán alapuló szemantikai információ elméletet javasolta [5] . A szemantikai információt a szerzők a szemantikai tartalom szinonimájaként értelmezik, amely mind az igaz, mind a hamis kifejezésekkel rendelkezik. A mondatban található szemantikai információ mennyiségének két fő mérőszámát vesszük figyelembe . Az elsőt így definiálják:

,

ahol  a mondat abszolút logikai valószínűsége . A második mérték az első nemlineáris függvénye:

.

Érdekessége, hogy két logikailag független mondatra van egy egyenlőtlenség: , ahol " " az "ÉS" logikai kötőjel, míg:

, (*)

amely alkalmasabb az információmennyiség mérésére.

A mondatok logikai valószínűségeinek értékeinek meghatározásához Bar-Hillel és Carnap formális nyelvet konstruál, és felhasználja az univerzum összes lehetséges állapotának leírására (az úgynevezett „ lehetséges világok halmaza ”). Nézzünk egy példát egy egyszerű nyelvre, amelyben van egy konstans (ez alatt a lány Alice-t értjük) és két predikátum : és , amelyek a "beautiful" és az "okos" tulajdonságokat jelölik. Ekkor a kifejezés azt jelenti, hogy „Alice szép”, a kifejezés pedig azt, hogy „Alice  okos”. Most a "NOT" logikai összekötőt használjuk, amelyet a " " szimbólummal jelölünk . Ezután a kifejezés azt jelenti, hogy "Alice nem szép", és a kifejezés  - "Alice nem okos". A világegyetem állapotairól most már minden lehetséges leírást összeállíthatunk szerény nyelvezetünkre. Összesen négy lesz.

Amint látható, az univerzum minden világa logikailag független atomi mondatokból (és azok tagadásából) áll, amelyeket alapmondatoknak nevezünk. A formális nyelvek általában sok állandót és sok predikátumot használnak, és nem feltétlenül egyetleneket . Tehát a világok száma nagyon nagy lehet.

Ha nem adottak előfeltételek, akkor minden világ logikai valószínűsége azonos. Ebben az esetben a mondat abszolút logikai valószínűségének nagysága megegyezik azon világok számának arányával, amelyekben igaz, az univerzum összes világához képest. Bar-Hillel és Carnap elméletében az analitikus kifejezések logikai valószínűsége azonos és eggyel egyenlő (mivel minden világban igaz), az ellentmondás logikai valószínűsége pedig nulla. A szintetikus kifejezések logikai valószínűségeinek értéke nulla és egy között van.

Minél több világ van az univerzumban, annál nagyobb a bizonytalanság (ahogy melyik világ igaz). Az üzenet átvétele után a bizonytalanság csökken, hiszen azok a világok, amelyekben ez hamis, kizárhatók a számításból. A mondatban található szemantikus információ a kizárt világok halmazaként értendő (a szimbólummal jelöljük ). Ezzel a definícióval kapcsolatban a szerzők azt írják, hogy az összhangban van az " omnis determinatio est negatio " (" minden meghatározás kivétel ") ősi filozófiai elvvel. Most a mértékre írhatjuk:

,

hol  van a halmaz kardinalitása , ott van  az univerzum összes világának halmazának is .

Az üzenetben a címzett tudására vonatkozó szemantikai információ mennyiségét a következőképpen határozzuk meg:

,

ahol  az állítás igazságának relatív (feltételes) logikai valószínűsége azzal a feltétellel, hogy a kifejezés igaz .

Figyelemre méltó, hogy a Bar-Hillel- és a Carnap-elmélet formulái pusztán külsőleg hasonlóak Shannon elméletéhez. Ott és itt is vannak logaritmusaink és valószínűségeink . Csak Shannonban minden valószínűség statisztikai (vagyis empirikus ), és nem logikai.

Ha a kifejezés logikai valószínűsége kisebb, mint a kifejezés logikai valószínűsége , akkor az üzenet új információt juttat el a címzetthez, így gazdagítja tudását. Ha implikál , akkor ekvivalens , és az üzenet nem továbbít információt a címzetthez (mivel nincs benne semmi újdonság). Ha a kifejezés ellentmondás, akkor . A szemantikai információ mennyisége az ellentmondásban Bar-Hillel és Carnap szerint egyenlő a végtelennel . Ezt a paradox eredményt később Luciano Floridi bírálta.

Alternatív ötletek

Bár Bar-Hillel és Carnap elmélete továbbra is élvezi a kutatók figyelmét, új ötletek özönét váltotta ki. Alexander Kharkevich javasolta az információ értékének mérését egy bizonyos cél elérésének valószínűségének megváltoztatásával, amely ennek az üzenetnek a hatására következik be [6] . Julius Schrader úgy vélte, hogy egy bármilyen jellegű üzenetben lévő szemantikai információ mennyisége felmérhető a címzett tudásrendszerében az üzenet észlelésének eredményeként bekövetkezett változás mértékeként [7] . Az információ és az entrópia közötti kapcsolat szemantikai aspektusának gondolatát először 1966-ban Jevgenyij Kazimirovics Voishvillo szovjet filozófus és logikus vetette fel „ Kísérlet az információ és entrópia statisztikai fogalmainak szemantikai értelmezésére ” című munkájában .

A szemantikai információ modern elméletei

A Floridi-elmélet

Luciano Floridi 2004-es munkájában az első sortól támadja Bar Hillel és Carnap elméletét: „A háromszögnek négy oldala van”: a szemantikai információ klasszikus elmélete szerint ez az ellentmondás több szemantikai tartalmat tartalmaz, mint a feltételesen igaz állítás. a Földnek csak egy Holdja van „ ” [8] . Floridi ezt " Bar-Hillel-Carnap paradoxonnak " nevezte. Ennek a paradoxonnak a megoldását abban látja, hogy az üzenetekben lévő szemantikai információ mennyisége nem csak a bennük lévő szemantikai tartalomtól, hanem ezen üzenetek igazságértékétől is függjön. Floridi bevezette a feltételesen hamis mondat ( contingently false mondat ) fogalmát, amely két alkotórészének kötőszava, amelyek közül az egyik igaz, a másik hamis. Példa egy ilyen mondatra a következő kijelentés: "A Hold a Föld körül kering, és belsejében üreges." Egy ilyen mondat egyszerre hordoz információt (azok számára, akik nem tudják, hogy a Hold kering a Föld körül) és dezinformációt (a hétköznapi életben gyakran találkozunk ezzel - a dezinformációt könnyebben elősegítik, ha kiegészítik némi információval).

A klasszikus logika szemszögéből egy feltételesen hamis mondat egyszerűen hamis, és csak téves információkat hordoz. A fenti példa azonban azt mutatja, hogy ez valójában nem így van. Bar-Hillel és Carnap eredeti elmélete nem oldja meg ezt az ellentmondást . Ezért Floridi elutasította (mint "gyenge" elméletet), és megalkotta a sajátját - "erős". Felhagyott a logikai valószínűségek használatával, és kijelentette, hogy a szemantikai információ elmélete nem hasonlíthat Shannon elméletéhez [9] . Saját értelmezése szerint az üzenetben lévő szemantikai információ mennyiségét az határozza meg, hogy ez az üzenet milyen mértékben felel meg a helyzetnek (vagyis annak, ami egy adott helyen és adott időpontban történik). Az inkonzisztencia vagy az üzenet tartalmi hiánya, vagy pontatlansága miatt adódik. Floridi elméletében közvetlenül nem használja a dezinformáció fogalmát, helyette bevezeti a feltételesen hamis mondatok pontatlansági fokának fogalmát. A pontatlanság mértéke egy feltételesen hamis mondatban egyenlő:

,

ahol  a hamis atomi kifejezések száma -ben ;  az atommondatok teljes száma a -ban . Az atomi állítások igazságának meghatározása megköveteli az a priori mindentudás elvének elfogadását. Az igaz mondat tartalmatlanságának mértékét a következő képlet számítja ki:

,

hol  van az univerzum azon világainak száma, amelyekben igaz;  az univerzumban található világok teljes száma (megjegyzendő, hogy e meghatározás szerint az érték pontosan megegyezik a logikai valószínűség értékével ). Továbbá Floridi bevezeti az informativitási fok függvényének fogalmát:

.

Az üzenetben lévő szemantikai információ mennyisége megegyezik az informativitási fok függvényének bizonyos integráljával :

.

A klasszikus elmélet és a floridai elmélet közötti különbségek ellenére van bennük valami közös. Ha igaz mondat, akkor az érték megegyezik a logikai valószínűség értékével . A mérték hasonló a mértékhez , de az utóbbitól eltérően nemlineáris függvény . Sajnos Floridi elméletében semmi sem hasonlít egy olyan mértékhez , amely a logikailag független mondatok figyelemre méltó tulajdonságával (*) rendelkezik.

A szemantikai információ és a dezinformáció elmélete

A Floridi által felvetett probléma egy logikai valószínűségeken alapuló elméleten belül megoldható. Meg kell jegyezni, hogy a jelenlegi század elejére egyes tudósok szkeptikus hozzáállást alakítottak ki Carnap induktív logikájával szemben [10] . A modern matematikusok azonban ennek az elméletnek a módosításával képesek voltak változtatni a helyzeten [11] [12] [13] . Ennek köszönhetően újra feléledt a logikai valószínűségek iránti érdeklődés.

A [14]-ben a szemantikai információ klasszikus elméletének módosítását javasolják, belefoglalva a dezinformáció fogalmát, amelyet hamis üzenet hordoz. Az új elméletben, akárcsak a Floridi elméletben, sok különböző helyzetet (a téridő pontjait) vesznek figyelembe. Egy nyelv ugyanazon mondata lehet igaz az egyik helyzetben, és hamis a másikban. Mivel az üzenetek címzettje nem lehet mentes az igazságértékelési hibáktól, a szemantikai információ mennyiségét a címzett és a mindentudó szakértő szemszögéből külön-külön értékelik.

Minden konkrét helyzetben egy igaz üzenet csak információt hordoz, az abszolút hamis pedig csak dezinformációt. A feltételesen hamis mondatot kötőszónak tekintjük : , ahol  az üzenet igaz része, ott az üzenet  hamis része. Ez szükséges és logikailag független (ez különösen azért szükséges, hogy az ellentmondás ne váljon feltételesen hamis mondattá). Ekkor a szakértői szempontból egy feltételesen hamis mondatban szereplő információ mennyiségének és félretájékoztatási mennyiségének nem normalizált mértékei a következők:

, .

A képletekben a „ ” és a „ ” szimbólumokat jelölő „ ” index azt jelzi, hogy az információ és a dezinformáció mennyiségét szakértői szemszögből veszik figyelembe. A szemantikai információ és a dezinformáció mennyiségének normalizált mértéke egy feltételesen hamis mondatban a szakértő szemszögéből:

, .

Az ellentmondás a szakértő szemszögéből nulla információt és végtelen mennyiségű dezinformációt hordoz magában. Ez megoldja a Bar-Hillel-Carnap paradoxont. A végtelen mennyiségű dezinformációt az magyarázza, hogy ha valakinek az ellentmondás hirtelen az igazságnak tűnne, akkor számára a világ a felismerhetetlenségig megváltozna. Két szóval nem lehet leírni. Tegyük fel, hogy az információ címzettje feltételesen hamis tudással rendelkezik , ami egyenértékű a következő kötőszóval: , ahol  tudásának valódi része van,  az téveszme. Ekkor szakértői szemszögből, miután feltételesen hamis üzenetet kapott , a címzett ténylegesen szemantikai információval és dezinformációval rendelkezik a következő mennyiségben:

, .

Ha a címzett igaz mondatként érzékeli, és a kötőszó nem ellentmondás, akkor az ő szemszögéből a következő mennyiségű információt kapta:

.

A „ ” utótag a címzett minősítését jelzi. A bejövő üzenetben található információ (és félretájékoztatás) pontos mennyiségét nyilván csak szakértő tudja meghatározni, a címzett pedig csak többé-kevésbé pontos becslésekre képes.

Az egyetemes szemantikai információ elmélete

A mindenféle fizikai rendszerre (élő és nem élő) alkalmazható szemantikai információk formális leírását David Wolpert matematikus adja "Szemantikai információ, ügynökség és nem egyensúlyi statisztikai fizika" című munkájában: a fizikai rendszer szintaktikai információi. a környezetről, és ami ok-okozatilag szükséges ahhoz, hogy a rendszer fenntartsa saját létezését alacsony entrópiás állapotban.

Az alkalmi szükségszerűséget a tények ellentétes beavatkozásaiként határozzák meg, amelyek véletlenszerűvé teszik a rendszer és a környezet közötti összefüggéseket. A fizikai rendszer autonómia fokának kritériuma a rendelkezésre álló szemantikai információ mennyisége.

Jegyzetek

  1. Shannon CE, Weaver W., (1949), The Mathematical Theory of Communication, Urbana: University of Illinois Press. Richard E. Blahut és Bruce Hajek előszava; újranyomva 1998-ban.
  2. Luger D.F. Mesterséges intelligencia: stratégiák és módszerek összetett problémák megoldására. – M.: Williams Kiadó, 2005. – 864 p. ISBN 5-8459-0437-4 (orosz)
  3. Dmitriev V.I. Alkalmazott információelmélet. - M.: Felsőiskola, 1989. - 320 p. ISBN 5-06-000038-9
  4. Shannon CE, (1948), A kommunikáció matematikai elmélete. Bell rendszer. Tech. J., 27: 379-423, 623-656.
  5. Bar-Hillel Y., Carnap R., (1952), "An Outline of a Theory of Semantic Information", sz. műszaki jelentés. 247, október 27. Elektronikai Kutatólaboratórium. – 49. [1] Archiválva : 2013. július 12.
  6. Kharkevich A. A. Az információ értékéről, "Problems of Cybernetics", 1960, c. 4. - p. 54.
  7. Shreider Yu. A., (1965), Az információ szemantikai elméletének egyik modelljén, "Problems of Cybernetics", v. 13. - p. 233-240.
  8. Floridi L. (2004), "Az erősen szemantikus információ elméletének vázlata", Minds and Machines, 14(2), 197-222. [2] Archiválva : 2014. augusztus 2. a Wayback Machine -nél
  9. Floridi L. (2011), Semantic Conception of Information, In The Stanford Encyclopedia of Philosophy, szerk. Edward N. Zalta, [3] Archivált 2015. szeptember 5-én a Wayback Machine -nél
  10. Hajek Alan. (2007). A valószínűség értelmezése. In The Stanford Encyclopedia of Philosophy, szerk. Edward N. Zalta, [4]  (hivatkozás nem elérhető)
  11. Maher Patrick, (2010). Az induktív valószínűség magyarázata. Journal of Philosophical Logic 39(6): 593-616.
  12. Zabell S.I. (2004). Carnap és az induktív következtetés logikája. In Dov M. Gabbay, John Woods & Akihiro Kanamori (szerk.), Handbook of the History of Logic. Elsevier 265-309.
  13. Rurik Holm (2013). Univerzális általánosítások nullától eltérő valószínűségei. Synthese 190(18): 4001-4007.
  14. Pogorelov O. A. (2015). Szemantikai információ és dezinformáció // Tudományos cikkek gyűjteménye az „Informatika, Matematikai Modellezés, Közgazdaságtan” V. Nemzetközi Tudományos és Gyakorlati Konferencia (Szmolenszk, 2015. május 11-15.) eredményei alapján. 132-143. [5]