A statisztikai tanuláselmélet a tanulógépek statisztikán és funkcionális elemzésen alapuló modellje [1] [2] . A statisztikai tanuláselmélet az adatokon alapuló prediktív függvény megtalálásának problémáival foglalkozik. A statisztikai tanuláselmélet sikeres alkalmazásokhoz vezetett olyan területeken, mint a számítógépes látás , a beszédfelismerés és a bioinformatika .
A tanulás célja a megértés és az előrelátás. A tanulás több kategóriába sorolható, beleértve a felügyelt tanulást , a felügyelet nélküli tanulást, az online tanulást és a megerősített tanulást . A tanulás statisztikai elmélete szempontjából a felügyelt tanulás a legérthetőbb [3] . A felügyelt tanulás magában foglalja a képzési adatkészlettel való tanulást Bármely képzési pillanat egy bemeneti/kimeneti pár, ahol a bemeneti érték a kimeneti értékre van leképezve. A tanulási probléma egy olyan függvény rekonstrukciója, amely leképezi a bemeneteket a kimenetekre, hogy a függvény segítségével megjósolható legyen a jövőbeli bemenetek kimenete.
A következtetés típusától függően a felügyelt tanulási problémák vagy regressziós problémák vagy osztályozási problémák . Ha a kimenet folyamatos tartományt vehet fel, az regressziós probléma. Az Ohm-törvényt használva példaként, a regresszió feszültséget vehet fel bemenetként, és áramot adhat kimenetként. A regresszióval meg lehetne találni a kapcsolatot a feszültség és az áram között mint , így
Az osztályozási feladatok azok, amelyeknél a kimenet egy címkekészlet eleme lesz. Az osztályozás nagyon gyakori a gépi tanulási alkalmazásokban. Egy arcfelismerő rendszerben például egy arc képe lenne a bemenet, a kimenet pedig a személy vezetékneve. A bemenet egy nagy, többdimenziós vektorként ábrázolható, melynek elemei a kép pixeleit reprezentálják.
Az edzéskészleten alapuló jellemző betanítása után az adott szolgáltatást egy olyan tesztkészleten tesztelik, amely nem jelenik meg az edzéskészletben.
Legyen az összes lehetséges bemenet vektortere és az összes lehetséges kimenet vektortere. A statisztikai tanuláselmélet feltételezi, hogy a terek szorzata között van valami ismeretlen valószínűségi eloszlás , azaz van valami ismeretlen . A betanítási halmaz ennek a valószínűségi eloszlásnak a példányaiból áll, és jelölve van
Mindegyik bemeneti vektor a betanítási adatokból, és az adott bemeneti vektornak megfelelő kimenet.
Egy ilyen formalizálásnál a következtetési probléma az, hogy olyan függvényt találjunk , amelyre . Legyen a függvények tere , amit hipotézisek terének nevezünk. A hipotézistér az a tér, amelyet az algoritmus megvizsgál. Legyen egy veszteségfüggvény , a becsült érték és a valódi érték közötti különbség metrikája . A várható kockázatot a következőképpen határozzuk meg
Objektív függvény, a legjobban választható függvény az a függvény, amelyik kielégíti a feltételt
Mivel a valószínűségi eloszlás nem ismert, a várható kockázat közelítő mértékét kell használni. Ezek a pontszámok a képzési halmazon alapulnak, amely egy minta ebből az ismeretlen valószínűségi eloszlásból. Az ilyen mértéket empirikus kockázatnak nevezzük: Az empirikus kockázatot minimalizáló függvényt kiválasztó tanuló algoritmust empirikus kockázatminimalizálásnak nevezzük .
A veszteségfüggvény kiválasztása a tanulási algoritmus által kiválasztott függvény meghatározó tényezőjének meghatározása . A veszteségfüggvény befolyásolja az algoritmus konvergenciájának sebességét is. Fontos, hogy a veszteségfüggvény konvex legyen [4] .
Különböző veszteségfüggvények használatosak attól függően, hogy a probléma regresszió vagy osztályozás.
A regresszióhoz leggyakrabban használt veszteségfüggvény a másodfokú veszteségfüggvény (más néven L2-norma ). Ezt az ismerős veszteségfüggvényt a közönséges legkisebb négyzetek módszerében használják . Képlet:
Az abszolút veszteségértéket (más néven L1-normát ) néha használják:
Bizonyos értelemben a 0-1 indikátorfüggvény a legtermészetesebb veszteségfüggvény osztályozási problémák esetén. A függvény 0 értéket vesz fel, ha az előrejelzett eredmény egyezik a helyes értékkel, és 1 értéket, ha az előrejelzett eredmény nem egyezik a megfelelő értékkel. A bináris osztályozáshoz ez lenne:
hol van a Heaviside függvény .
A gépi tanulási feladatokban a túlillesztés komoly problémává válik . Mivel a tanulás előrejelzési feladat, nem az a cél, hogy megtaláljuk azt a jellemzőt, amelyik a legjobban illeszkedik az (előnézeti) adatokhoz, hanem az, hogy megtaláljuk azt a jellemzőt, amely a legpontosabban előrejelzi a jövőbeli bemenetek kimenetét. Az empirikus kockázatminimalizálás beleesik ebbe a túlillesztési kockázatba: olyan függvényt kell találni, amely pontosan illeszkedik az adatokhoz, de nem képes megjósolni a jövőt.
A túlillesztés az instabil megoldások tünete – az edzéskészlet kis változtatásai nagy eltéréseket okozhatnak a tanulási funkcióban. Kimutatható, hogy a megoldás stabilitása garantálható [5] [6] . A rendszeresítés megoldhatja a túlillesztés problémáját és stabilitást biztosíthat .
A szabályozás a hipotézisek terének korlátozásával történhet . Korlátozható például lineáris függvényekre – ez a standard lineáris regressziós probléma korlátozásának tekinthető . korlátozható fokpolinomokra , exponenciálisokra vagy korlátos függvényekre L1 -en . A hipotézisterek korlátozása kizárja a túlillesztést a potenciális függvények formájának korlátozásával, ami nem teszi lehetővé olyan függvények kiválasztását, amelyek tetszőlegesen nullához közeli empirikus kockázatot adnak.
A regularizáció egyik példája Tyhonov -féle regularizáció . Ez a minimalizálásból áll
,ahol egy rögzített pozitív paraméter. A Tyihonov-szabályozási módszer biztosítja a megoldás meglétét, egyediségét és stabilitását [7] .
Gépi tanulás és adatbányászat | |
---|---|
Feladatok | |
Tanulás tanárral | |
klaszteranalízis | |
Dimenziócsökkentés | |
Strukturális előrejelzés | |
Anomália észlelése | |
Grafikon valószínűségi modellek | |
Neurális hálózatok | |
Megerősítő tanulás |
|
Elmélet | |
Folyóiratok és konferenciák |
|