Az Ockham-tanulás a számítógépes tanuláselméletben egy algoritmikus tanulási modell , ahol a tanulás célja a rendelkezésre álló képzési adatok tömör ábrázolása. A módszer szorosan összefügg a szinte helyes tanulással (PC tanulás, eng. Probably Approximately Correct learning , PAC learning), ahol a tanár értékeli a tesztkészlet előrejelző képességét.
Az Occam tanulhatósága magában foglalja a számítógépes tanulást, és a fogalmak széles skálájára ennek az ellenkezője is igaz – a számítógépes tanulás az Occam tanulását is magában foglalja.
Az Occam tanulása az " Occam borotva " kifejezésről kapta a nevét, amely az az elv, amely kimondja, hogy további entitások hiányában a megfigyelések rövid magyarázatát előnyben kell részesíteni egy hosszabb magyarázattal szemben (röviden: "Nem szabad a lényeket feleslegesen szaporítani"). Occam tanuláselmélete ennek az elvnek a formális és matematikai finomítása. Blumer és munkatársai voltak az elsők, akik megmutatták [1] , hogy az Occam-tanulás magában foglalja a számítógépes tanulást is, amely a számítógépes tanuláselmélet standard tanulási modellje. Más szóval, a takarékosság (kimeneti hipotézis) előrejelző képességgel jár .
A fogalom tömörsége egy fogalomosztályban kifejezhető az osztály fogalmát reprezentáló legrövidebb bitsorozat hosszával . Az Ockham-tanulás összekapcsolja a tanulási algoritmus kimenetének tömörségét annak előrejelző képességével.
Legyen és legyen célfogalmakat és hipotéziseket tartalmazó fogalomosztályok. Ekkor a és konstansok esetén a tanuló algoritmus egy -Occam algoritmus hipotézisek szerint akkor és csak akkor, ha adott egy halmaz , amely szerint címkézett példányokat tartalmaz , az algoritmus kimenete egy hipotézis , így
ahol a maximális hossza a . Az Occam-algoritmust hatékonynak nevezzük, ha az és polinomiális idejében fut . Azt mondjuk, hogy a fogalmak egy osztálya Occam-tanulható a hipotézisek osztályához képest, ha létezik hatékony Occam algoritmus a hipotézisekre.
Az Ockham-tanulhatóság magában foglalja a számítógépes tanulhatóságot is, amint azt Blumer és munkatársai [2] tétele mutatja :
Legyen egy hatékony -Occam algoritmus a hipotézisek alapján . Ekkor van egy olyan állandó , hogy bármely eloszlás esetén, adott esetben az egyes bitek fogalma alapján levont és aszerint címkézett példányok esetén az algoritmus olyan hipotézist állít elő , hogy a valószínűsége legalább
. Itt figyelembe veszi a koncepciót és az elosztást . Ebből következik, hogy az algoritmus a hipotézisek osztálya alatti fogalmak osztályának számítógépes tanára . Egy kicsit általánosabb megfogalmazás:
Hadd . Legyen egy olyan algoritmus, amely egy rögzített, de ismeretlen eloszlásból húzott és a koncepció szerint bithosszúságú karakterlánccal felcímkézett példányok halmaza esetén a kimenet egy hipotézis, amely összhangban van a címkézett példányokkal. Ekkor létezik egy olyan konstans , amely esetén garantáltan olyan hipotézist adunk fel , amely valószínűséggel legalább .
Bár a fenti tételek azt mutatják, hogy az Occam tanulása elegendő a PC-s tanuláshoz, nem mondanak semmit a szükségességéről . Board és Pitt kimutatták, hogy a fogalmak széles osztályához az Occam tanulás szükséges a PC-s tanuláshoz [3] . Megmutatták, hogy a kivétellisták alatt polinomiálisan zárt fogalmak bármely osztálya esetén a PC tanulhatósága magában foglalja az Occam-algoritmus meglétét az adott fogalomosztályhoz. A kivétellisták által polinomiálisan lezárt fogalomosztályok közé tartoznak a logikai formulák, összegzési láncok, determinisztikus véges automaták , döntési listák, döntési fák és más geometriai alapú fogalomosztályok.
A fogalmak egy osztálya polinomiálisan zárt a kivétellistákban, ha létezik polinomiális futásidejű algoritmus , így a fogalom reprezentációja és a kivételek véges listája alapján az algoritmus kimenete a fogalom reprezentációja , így a fogalmakat és egyetértenek, kivéve a halmaz elemeinek kizárását .
Először a változatot fogjuk bizonyítani hosszúsággal. Rossznak nevezzük a hipotézist , ha itt is figyelembe veszi a valódi fogalmát és eloszlását . Annak a valószínűsége, hogy a halmaz konzisztens a mintákkal, nem haladja meg a -t , a minták függetlensége szerint. Egy teljes halmaz esetén annak a valószínűsége, hogy rossz hipotézis van a helyen , nem haladja meg a -t, ami kisebb, mint ha . Ezzel befejeződik a második tétel bizonyítása.
A második tétel segítségével bebizonyítjuk az elsőt. Mivel van egy -Occam algoritmusunk, ez azt jelenti, hogy az algoritmus bármely kimeneti hipotézise legfeljebb bittel reprezentálható, majd . Ez kevesebb, mintha valamilyen állandót állítanánk be . Ekkor a tétel hosszúságú változata szerint konzisztens hipotézist ad legalább . Ezzel befejeződik az első tétel bizonyítása.
Bár az Occam-tanulás és a PC-tanulás egyenértékűek, az Occam algoritmusa felhasználható arra, hogy szigorúbb határokat kapjunk a klasszikus problémák minta-összetettségére vonatkozóan, beleértve a logikai érvelést [2] , a többváltozós gondolkodást [4] és a döntési listákat [5] .
Kimutatták, hogy az Ockham-algoritmusok sikeresen működnek a PT-tanulásban hibák [6] [7] , valószínűségi fogalmak [8] , tanulási függvények [9] és nem független Markov-példák [10] jelenlétében .
Kearns MJ, Schapire RE Valószínűségi fogalmak hatékony elosztás nélküli tanulása // Foundations of Computer Science, 1990. Proceedings., 31st Annual Symposium . - Los Alamitos, CA: IEEE Computer Society Press, 1990.
Aldous D., Vazirani U. Valiant tanulási modelljének markovi kiterjesztése // Foundations of Computer Science, 1990. Proceedings., 31st Annual Symposium. – IEEE, 1990.
Gépi tanulás és adatbányászat | |
---|---|
Feladatok | |
Tanulás tanárral | |
klaszteranalízis | |
Dimenziócsökkentés | |
Strukturális előrejelzés | |
Anomália észlelése | |
Grafikon valószínűségi modellek | |
Neurális hálózatok | |
Megerősítő tanulás |
|
Elmélet | |
Folyóiratok és konferenciák |
|