Tanulás példával

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2019. május 19-én felülvizsgált verziótól ; az ellenőrzések 4 szerkesztést igényelnek .

A példákból való tanulás a tanulás egy olyan  fajtája, amelyben egy intellektuális rendszert pozitív és negatív példák halmazával mutatnak be, amelyek valamilyen korábban ismeretlen szabályszerűséghez kapcsolódnak. Az intelligens rendszerekben döntési szabályokat dolgoznak ki, amelyek segítségével a példasort pozitívra és negatívra osztják. Az elválasztás minőségét általában mintákból álló vizsgálati mintával ellenőrzik. [egy]

Matematikai formalizálás

Legyen objektumok leírásainak halmaza, érvényes válaszok halmaza. Van egy ismeretlen célfüggőség – leképezés , amelynek értékei csak a végső betanítási minta objektumairól ismertek . Olyan algoritmust kell felépíteni, amely mind a minta elemeire, mind a teljes halmazra közelíti az ismeretlen célfüggést .

Azt is mondják, hogy az algoritmusnak képesnek kell lennie empirikus tények általánosítására , vagy általános ismeretek ( szabályszerűség , függőség ) származtatására bizonyos tényekből (megfigyelések, precedensek).

Veszteségfüggvények és minőségi funkcionálisok

Egy veszteségfüggvény kerül bevezetésre , amely a válasz eltérését a helyes választól jellemzi egy tetszőleges objektumon .

A veszteségfüggvény tipikus megválasztása:

Bevezetünk egy minőségi funkcionálist , amely az algoritmus átlagos hibáját ( empirikus kockázatát ) jellemzi tetszőleges mintán

Az empirikus kockázatminimalizálási módszer az egyik legelterjedtebb megközelítés az algoritmusok precedensekből való tanulására. Ez abból áll, hogy egy adott algoritmusmodellben olyan algoritmust találunk, amely minimálisra csökkenti a tanítókészlet átlagos hibáját:

Így a tanulási probléma optimalizálásra redukálódik, és numerikus optimalizálási módszerekkel megoldható .

Általánosító képesség és a túlillesztés problémája

A minőségi függvény kis értéke a betanítási mintán nem garantálja, hogy a megszerkesztett algoritmus jól visszaállítja a célfüggést a teljes tértől . Fennáll a túlillesztés vagy a túlillesztés veszélye, ha konkrét adatokat próbálnak meg pontosabban leírni, mint amennyit az adatok zajszintje és magának a modellnek a hibája elvileg lehetővé tenne.

Könnyű példát hozni olyan algoritmusra, amely nullára minimalizálja az empirikus kockázatot, de nem rendelkezik általánosítási képességgel. Miután megkapta a betanítási mintát , megjegyzi azt, majd összehasonlítja a bemutatott objektumot a -ból származó betanítási objektumokkal . Egyezés esetén az algoritmus a helyes választ adja meg . Ellenkező esetben önkényes választ adnak ki. Az empirikus kockázat a lehető legkisebb értéket veszi fel nullával. Ez az algoritmus azonban nem képes visszaállítani a tanulási objektumon kívüli függőséget. Ez a példa meggyőzően mutatja, hogy a sikeres tanuláshoz nemcsak memorizálásra, hanem általánosításra is szükség van.

Szinte minden módszernél különös erőfeszítéseket tesznek a túlillesztés elkerülésére. Az empirikus kockázatminimalizálási módszer alkalmazhatóságának határait és a túlillesztés problémáját a tanulás statisztikai elmélete vizsgálja .

Feature space

A jel egy leképezés , ahol  a jel megengedett értékeinek halmaza. Ha jellemzők adottak , akkor a vektort az objektum jellemző leírásának nevezzük . Az indikatív leírások magukkal az objektumokkal azonosíthatók. Ebben az esetben a halmazt jellemzőtérnek nevezzük .

A készlettől függően a jelek a következő típusokra oszthatók:

Gyakran vannak alkalmazott problémák különböző típusú jellemzőkkel, amelyek megoldására nem minden módszer alkalmas.

Megoldandó feladatok

A hiányzó adatok kitöltésének feladata

A kezdeti információkat tájékoztató jellegű leírások formájában mutatjuk be. Előfordulhat, hogy egyes objektumok egyes jellemzőinek értékei hiányoznak. Ilyen esetek gyakran előfordulnak a gyakorlatban. Például előfordulhat, hogy a kísérletvezető nem rögzíti a megfigyelés eredményét; a válaszadó megtagadhatja a kérdőív kérdésének megválaszolását; a beteg nem megy át az ilyen típusú vizsgálaton; stb. Számos adatelemzési módszer azonban megköveteli, hogy a jellemzőleírások bemeneti mátrixát teljesen kitöltsék. A következő megközelítést gyakran használják a hiányzó értékek kitöltésére. Ha ezt a funkciót célnak tekintjük, egy algoritmus épül, amely megjósolja annak értékét más jellemzők függvényében. A hiányzó értékeket előrejelzésekkel töltik ki. Ez a művelet az összes hiányzó értékkel rendelkező funkcióval végrehajtódik.

Ha az előjel mennyiségi, akkor regressziós helyreállítási módszereket, ha az előjel kvalitatív (nominális), osztályozási módszereket alkalmazunk .

Algoritmusok

Jegyzetek

  1. A. N. Averkin, M. G. Gaaze-Rapoport , D. A. Pospelov "Explanatory Dictionary of Artificial Intelligence" [1] Archív példány 2010. május 5-én a Wayback Machine -nél

Irodalom

  1. Ayvazyan S. A., Enyukov I. S., Meshalkin L. D. Alkalmazott statisztika : a modellezés és az elsődleges adatfeldolgozás alapjai. - M .: Pénzügy és statisztika, 1983.
  2. Ayvazyan S. A., Enyukov I. S., Meshalkin L. D. Alkalmazott statisztika: a függőségek tanulmányozása. - M .: Pénzügy és statisztika, 1985.
  3. Ayvazyan S. A., Buchstaber V. M., Enyukov I. S., Meshalkin L. D. Alkalmazott statisztika: osztályozás és méretcsökkentés . - M .: Pénzügy és statisztika, 1989.
  4. Vapnik VN Függőségek rekonstrukciója empirikus adatok alapján. - M.: Nauka, 1979.
  5. Zhuravlev Yu. I., Ryazanov V. V., Senko O. V. „Elismerés”. Matematikai módszerek. Szoftver rendszer. Praktikus alkalmazások. — M.: Fazis, 2006. ISBN 5-7036-0108-8 .
  6. Zagoruiko NG Alkalmazott adat- és tudáselemzési módszerek. - Novoszibirszk : IM SO RAN, 1999. ISBN 5-86134-060-9 .
  7. Shlesinger M., Glavach V. Tíz előadás a statisztikai és strukturális felismerésről. - Kijev : Naukova Dumka , 2004. ISBN 966-00-0341-2 .
  8. Hastie, T., Tibshirani R., Friedman J. A statisztikai tanulás elemei: adatbányászat, következtetés és előrejelzés . — 2. kiadás. - Springer-Verlag, 2009. - 746 p. - ISBN 978-0-387-84857-0 . .
  9. Mitchell T. Gépi tanulás. — McGraw-Hill Science/Engineering/Math, 1997. ISBN 0-07-042807-7 .

Linkek