Az AdaBoost (az Adaptive Boosting rövidítése ) egy Yoav Freund és Robert Shapire által javasolt gépi tanulási algoritmus . Ez az algoritmus számos osztályozási algoritmussal együtt használható a teljesítményük javítására. Az algoritmus megerősíti az osztályozókat azáltal, hogy egy "bizottságba" ( ensemble ) egyesíti őket . Az AdaBoost adaptív abban az értelemben, hogy minden következő osztályozó bizottság olyan objektumokra épül, amelyeket az előző bizottságok helytelenül osztályoztak. Az AdaBoost érzékeny az adatzajra és a kiugró értékekre . Más gépi tanulási algoritmusokhoz képest azonban kevésbé hajlamos a túlillesztésre .
Az AdaBoost a gyenge osztályozókat ciklusban hívja meg . Minden hívás után frissül a súlyok eloszlása , amely megfelel az egyes objektumok osztályozási fontosságának a képzési készletben. Minden iterációnál minden hibásan besorolt objektum súlya megnövekszik, így az új osztályozó bizottság ezekre az objektumokra "fókuszálja a figyelmét".
Adott: hol
Inicializálás
Mindegyikhez :
A kapott osztályozót elkészítjük:
A terjesztésfrissítési kifejezést úgy kell összeállítani, hogy a következő feltétel teljesüljön:
Így az eloszlás optimális osztályozójának kiválasztása után az osztályozó által helyesen azonosított objektumok súlya kisebb, mint a hibásan azonosítottaké. Ezért amikor az algoritmus a disztribúció osztályozóit teszteli , azt az osztályozót választja, amely jobban azonosítja az előző osztályozó által félreismert objektumokat.
Gépi tanulás és adatbányászat | |
---|---|
Feladatok | |
Tanulás tanárral | |
klaszteranalízis | |
Dimenziócsökkentés | |
Strukturális előrejelzés | |
Anomália észlelése | |
Grafikon valószínűségi modellek | |
Neurális hálózatok | |
Megerősítő tanulás |
|
Elmélet | |
Folyóiratok és konferenciák |
|