Occam tanul

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2020. július 2-án felülvizsgált verziótól ; az ellenőrzéshez 1 szerkesztés szükséges .

Az Ockham-tanulás a számítógépes tanuláselméletben egy algoritmikus tanulási modell , ahol a tanulás célja a rendelkezésre álló képzési adatok tömör ábrázolása. A módszer szorosan összefügg a szinte helyes tanulással (PC tanulás, eng.  Probably Approximately Correct learning , PAC learning), ahol a tanár értékeli a tesztkészlet előrejelző képességét.

Az Occam tanulhatósága magában foglalja a számítógépes tanulást, és a fogalmak széles skálájára ennek az ellenkezője is igaz – a számítógépes tanulás az Occam tanulását is magában foglalja.

Bevezetés

Az Occam tanulása az " Occam borotva " kifejezésről kapta a nevét, amely az az elv, amely kimondja, hogy további entitások hiányában a megfigyelések rövid magyarázatát előnyben kell részesíteni egy hosszabb magyarázattal szemben (röviden: "Nem szabad a lényeket feleslegesen szaporítani"). Occam tanuláselmélete ennek az elvnek a formális és matematikai finomítása. Blumer és munkatársai voltak az elsők, akik megmutatták [1] , hogy az Occam-tanulás magában foglalja a számítógépes tanulást is, amely a számítógépes tanuláselmélet standard tanulási modellje. Más szóval, a takarékosság (kimeneti hipotézis) előrejelző képességgel jár .

Occam definíciója a tanulásról

A fogalom tömörsége egy fogalomosztályban kifejezhető az osztály fogalmát reprezentáló legrövidebb bitsorozat hosszával . Az Ockham-tanulás összekapcsolja a tanulási algoritmus kimenetének tömörségét annak előrejelző képességével.

Legyen és legyen célfogalmakat és hipotéziseket tartalmazó fogalomosztályok. Ekkor a és konstansok esetén a tanuló algoritmus egy -Occam algoritmus hipotézisek szerint akkor és csak akkor, ha adott egy halmaz , amely szerint címkézett példányokat tartalmaz , az algoritmus kimenete egy hipotézis , így

ahol a maximális hossza a . Az Occam-algoritmust hatékonynak nevezzük, ha az és polinomiális idejében fut . Azt mondjuk, hogy a fogalmak egy osztálya Occam-tanulható a hipotézisek osztályához képest, ha létezik hatékony Occam algoritmus a hipotézisekre.

Az Occam tanulás és a számítógépes tanulás kapcsolata

Az Ockham-tanulhatóság magában foglalja a számítógépes tanulhatóságot is, amint azt Blumer és munkatársai [2] tétele mutatja :

Tétel ( Occam tanulása PC-s tanulással jár )

Legyen egy hatékony -Occam algoritmus a hipotézisek alapján . Ekkor van egy olyan állandó , hogy bármely eloszlás esetén, adott esetben az egyes bitek fogalma alapján levont és aszerint címkézett példányok esetén az algoritmus olyan hipotézist állít elő , hogy a valószínűsége legalább

. Itt figyelembe veszi a koncepciót és az elosztást . Ebből következik, hogy az algoritmus a hipotézisek osztálya alatti fogalmak osztályának számítógépes tanára . Egy kicsit általánosabb megfogalmazás:

Tétel ( Occam tanulása PC-s tanulást jelent, hosszú verzió )

Hadd . Legyen egy olyan algoritmus, amely egy rögzített, de ismeretlen eloszlásból húzott és a koncepció szerint bithosszúságú karakterlánccal felcímkézett példányok halmaza esetén a kimenet egy hipotézis, amely összhangban van a címkézett példányokkal. Ekkor létezik egy olyan konstans , amely esetén garantáltan olyan hipotézist adunk fel , amely valószínűséggel legalább .

Bár a fenti tételek azt mutatják, hogy az Occam tanulása elegendő a PC-s tanuláshoz, nem mondanak semmit a szükségességéről . Board és Pitt kimutatták, hogy a fogalmak széles osztályához az Occam tanulás szükséges a PC-s tanuláshoz [3] . Megmutatták, hogy a kivétellisták alatt polinomiálisan zárt fogalmak bármely osztálya esetén a PC tanulhatósága magában foglalja az Occam-algoritmus meglétét az adott fogalomosztályhoz. A kivétellisták által polinomiálisan lezárt fogalomosztályok közé tartoznak a logikai formulák, összegzési láncok, determinisztikus véges automaták , döntési listák, döntési fák és más geometriai alapú fogalomosztályok.

A fogalmak egy osztálya polinomiálisan zárt a kivétellistákban, ha létezik polinomiális futásidejű algoritmus , így a fogalom reprezentációja és a kivételek véges listája alapján az algoritmus kimenete a fogalom reprezentációja , így a fogalmakat és egyetértenek, kivéve a halmaz elemeinek kizárását .

Bizonyíték arra, hogy az Occam tanulása számítógépes tanulást is magában foglal

Először a változatot fogjuk bizonyítani hosszúsággal. Rossznak nevezzük a hipotézist , ha itt is figyelembe veszi a valódi fogalmát és eloszlását . Annak a valószínűsége, hogy a halmaz konzisztens a mintákkal, nem haladja meg a -t , a minták függetlensége szerint. Egy teljes halmaz esetén annak a valószínűsége, hogy rossz hipotézis van a helyen , nem haladja meg a -t, ami kisebb, mint ha . Ezzel befejeződik a második tétel bizonyítása.

A második tétel segítségével bebizonyítjuk az elsőt. Mivel van egy -Occam algoritmusunk, ez azt jelenti, hogy az algoritmus bármely kimeneti hipotézise legfeljebb bittel reprezentálható, majd . Ez kevesebb, mintha valamilyen állandót állítanánk be . Ekkor a tétel hosszúságú változata szerint konzisztens hipotézist ad legalább . Ezzel befejeződik az első tétel bizonyítása.

A minta összetettségének javítása általános problémák esetén

Bár az Occam-tanulás és a PC-tanulás egyenértékűek, az Occam algoritmusa felhasználható arra, hogy szigorúbb határokat kapjunk a klasszikus problémák minta-összetettségére vonatkozóan, beleértve a logikai érvelést [2] , a többváltozós gondolkodást [4] és a döntési listákat [5] .

Kiterjesztések

Kimutatták, hogy az Ockham-algoritmusok sikeresen működnek a PT-tanulásban hibák [6] [7] , valószínűségi fogalmak [8] , tanulási függvények [9] és nem független Markov-példák [10] jelenlétében .

Lásd még

Jegyzetek

  1. 1 2 Blumer, Ehrenfeucht, Haussler, Warmuth, 1987 , p. 377-380.
  2. 1 2 3 Kearns, Vazirani, 1994 .
  3. Board, Pitt, 1990 , p. 54-63.
  4. Haussler, 1988 , p. 177-221.
  5. Rivest, 1987 , p. 229-246.
  6. Angluin, Laird, 1988 , p. 343-370.
  7. Kearns, Li, 1993 , p. 807-837.
  8. Kearns, Schapire, 1990 , p. 382-391.
  9. Natarajan, 1993 , p. 370-376.
  10. Aldous és Vazirani 1990 , p. 392-396.

Irodalom

Kearns MJ, Schapire RE Valószínűségi fogalmak hatékony elosztás nélküli tanulása // Foundations of Computer Science, 1990. Proceedings., 31st Annual Symposium . - Los Alamitos, CA: IEEE Computer Society Press, 1990.

Aldous D., Vazirani U. Valiant tanulási modelljének markovi kiterjesztése // Foundations of Computer Science, 1990. Proceedings., 31st Annual Symposium. – IEEE, 1990.