Berkson paradoxona

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2021. december 9-én felülvizsgált verziótól ; az ellenőrzések 2 szerkesztést igényelnek .

Berkson paradoxona , ütközőhiba  – a matematikai statisztika álláspontja, J. Berkson ( angolul  Joseph Berkson ) fogalmazta meg 1946-ban. Állítás: Két független esemény feltételesen függővé válhat, ha valamilyen harmadik esemény következik be . Ez a következtetés néhány ember számára ellentétes , ezért paradoxonként írható le . A harmadik eseményt, amely az első két eseményt feltételesen függővé teheti, ütközőnek nevezzük . A Berkson-féle paradoxont ​​gyakran írják le az orvosi statisztika vagy a biostatisztika területén.. Bonyolító tényező, amely az arányszámok statisztikai tesztjeiben jelenik meg.

Ugyanezt a paradoxont említi a mesterséges neurális hálózatok elmélete, mint múló magyarázatot , igazolási hatást vagy az ok csökkentését ( eng.  magyarázata el ) [1] [2] .

Formális definíció

ha 0 < P( A ) < 1 és 0 < P( B ) < 1, ahol A és B néhány esemény, és P( A | B ) = P( A ) (azaz az események függetlenek), akkor P( A | B , C ) < P( A | C ) ahol C = A ∪ B (azaz A vagy B ).

Illusztráció a matematikai statisztika példáján alapuló

Egy készletből véletlenszerűen kiválasztott postabélyegek statisztikáit vizsgáljuk , figyelembe véve két egymástól független bélyegtulajdonságot: „ritkaság” és „szép”.

Tegyük fel, hogy 1000 bélyeg van, amelyek közül 300 szép, 100 ritka, és 30 szép és ritka. Nyilván a teljes készletből a bélyegek 10%-a ritka, de a szép bélyegek közül 10% is ritka, vagyis a bélyeg szépsége mit sem mond a ritkaságáról.

Ha azonban a teljes készletből (1000) kiválasztjuk az összes szép bélyeget és az összes ritka bélyeget (370 ilyen bélyeg van), akkor ebben a ritka bélyegmintában már 27% lesz (100 a 370-ből), de ezek közül a gyönyörű bélyegek továbbra is csak 10% lesznek (300-ból 30). Ekkor a megfigyelő egy ilyen minta (és nem a teljes halmaz) elemzésekor látszólagos fordított kapcsolatot fog látni a márka szépsége és ritkasága között (ha a márka szép, akkor ritkaságának valószínűsége kisebb). De a valóságban nincs ilyen kapcsolat.

A leírt eredmény matematikailag teljesen helytálló, „paradoxonossága” azon emberek felfogásának sajátosságaihoz kapcsolódik, akik hajlamosak intuitívan azt hinni, hogy ha két paraméter független, akkor bármely mintában az is marad. A valóságban a független paraméterek közötti szelekciós torzítás esetén feltételes függőségek léphetnek fel, amelyek a teljes sokaságra kiterjesztve durva hibákhoz vezetnek az elemzésben.

Illusztráció egy példán a neurális hálózatok elméletéből

Legyen megadva a legegyszerűbb szigmoid aktivációs függvényű Bayes -féle mesterséges neurális hálózat , amely két független eseményt (okot) tartalmaz, amiért egy harmadik esemény bekövetkezik - a ház megremeg. A -10-es torzítás a földrengésesemény-neuronban azt jelenti, hogy megfigyelések és előzetes ismeretek hiányában ez az esemény sokkal valószínűbb, hogy nem történik meg, mint megtörténik. Ha földrengés történik, de teherautó esemény nem történik, akkor a házrázási esemény neuronjának teljes bemenete 0, ami azt jelenti, hogy az esemény bekövetkezésének (vagyis az idegsejt aktiválásának) valószínűsége 0,5. Így ha van egy megfigyelésünk a „remeg a ház” eseményről, akkor erre a tényre a legjobb magyarázat az egyik esemény-ok bekövetkezése. Logikátlan azonban azt feltételezni, hogy mindkét okozó esemény egyszerre történt, hogy megmagyarázzuk a ház megrázkódását, mivel egyidejű előfordulásának valószínűsége egyenlő . Így ha megfigyelünk egy házrengést és tudjuk, hogy mi történt, például egy földrengést okozó esemény, akkor ez azt a magyarázatot adja ( elmagyarázza , csökkenti az okot), hogy a teherautó volt a hibás a ház megrázkódtatásáért [3 ] .  

Jegyzetek

  1. Bevezetés a bayesi hálózatokba  / S. A. Terekhov // Tudományos ülésszak MEPhI-2003. V Összoroszországi tudományos és műszaki konferencia Neuroinformatika-2003: Előadások a neuroinformatikáról / Szerk. szerk. Yu. V. Tyumentsev (a műszaki tudományok kandidátusa). - M.  : MEPhI, 2003. - 1. rész - S. 154. - 188 p. : ill. — SRNTI 28.23.27. - BBK  32,818 ya5 . - UDC  004.81.032.26 (063) . — ISBN 5-7262-0471-9 .
  2. 1. előadás „Bayes-i és Markov-hálózatok” Archív másolat 2014. július 14-én a Wayback Machine -nél D. P. Vetrov D. A. Kropotov A. A. Osokin. - Moszkvai Állami Egyetem, VMiK, tanszék. MMP CC RAS ​​„Grafikus modellek” tanfolyam
  3. Hinton, G.E.; Osindero, S.; Teh, Y. Gyors tanulási algoritmus mély hithálózatokhoz  (határozatlan)  // Neurális számítás. - 2006. - T. 18 , 7. sz . - S. 1527-1554 . - doi : 10.1162/neco.2006.18.7.1527 . — PMID 16764513 .

Irodalom

Lásd még