Adaboost

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2019. augusztus 2-án felülvizsgált verziótól ; az ellenőrzések 3 szerkesztést igényelnek .

Az AdaBoost (az Adaptive Boosting rövidítése ) egy Yoav Freund és Robert Shapire által javasolt gépi tanulási algoritmus . Ez az algoritmus számos osztályozási algoritmussal együtt használható a teljesítményük javítására. Az algoritmus megerősíti az osztályozókat azáltal, hogy egy "bizottságba" ( ensemble ) egyesíti őket . Az AdaBoost adaptív abban az értelemben, hogy minden következő osztályozó bizottság olyan objektumokra épül, amelyeket az előző bizottságok helytelenül osztályoztak. Az AdaBoost érzékeny az adatzajra és a kiugró értékekre . Más gépi tanulási algoritmusokhoz képest azonban kevésbé hajlamos a túlillesztésre .

Az AdaBoost a gyenge osztályozókat ciklusban hívja meg . Minden hívás után frissül a súlyok eloszlása , amely megfelel az egyes objektumok osztályozási fontosságának a képzési készletben. Minden iterációnál minden hibásan besorolt ​​objektum súlya megnövekszik, így az új osztályozó bizottság ezekre az objektumokra "fókuszálja a figyelmét".

Algoritmus egy bináris osztályozó felépítésének problémájához

Adott: hol

Inicializálás

Mindegyikhez :


ahol egy normalizáló paraméter ( valószínűségi eloszlásnak választva , azaz ) .

A kapott osztályozót elkészítjük:

A terjesztésfrissítési kifejezést úgy kell összeállítani, hogy a következő feltétel teljesüljön:

Így az eloszlás optimális osztályozójának kiválasztása után az osztályozó által helyesen azonosított objektumok súlya kisebb, mint a hibásan azonosítottaké. Ezért amikor az algoritmus a disztribúció osztályozóit teszteli , azt az osztályozót választja, amely jobban azonosítja az előző osztályozó által félreismert objektumokat.

Linkek