A statisztikában , a gépi tanulásban , az inverz problémaelméletben a rendszeresítés olyan módszer, amellyel további megszorításokat adunk egy feltételhez egy rosszul feltett probléma megoldása vagy a túlillesztés megakadályozása érdekében . Ez az információ gyakran büntetés formájában érkezik a modell összetettsége miatt. Ezek lehetnek például az eredményül kapott függvény simaságának korlátozásai, vagy a vektortér-normára vonatkozó korlátozások .
Bayesi nézőpontból sok regularizációs módszer megfelel néhány korábbi eloszlás hozzáadásának a modell paramétereihez.
A rendszeresítés néhány típusa:
A túlillesztés a legtöbb esetben abban nyilvánul meg, hogy a kapott polinomok túl nagy együtthatókkal rendelkeznek. Ennek megfelelően a célfüggvényt túl nagy együtthatókért büntetést kell hozzáadni .
Nincs megoldás a többszempontú optimalizálásra vagy olyan optimalizálásra, amelyben a célfüggvény tartománya olyan tér, amelyen nincs lineáris sorrend , vagy nehéz bevezetni. Szinte mindig vannak olyan pontok az optimalizált függvény tartományában, amelyek kielégítik a megszorításokat, de a pontokban lévő értékek összehasonlíthatatlanok. A Pareto-görbe összes pontjának megtalálásához használja a skalarizációt [1] . Az optimalizálás során a regularizálás egy általános skalarizációs technika kétkritériumú optimalizálási probléma esetén [2] . A lambda paraméter változtatásával - az elem, amelynek nullánál nagyobbnak kell lennie a kettős kúpban, amelyhez képest a sorrendet meghatározzák - különböző pontokat kaphat a Pareto-görbén .
Gépi tanulás és adatbányászat | |
---|---|
Feladatok | |
Tanulás tanárral | |
klaszteranalízis | |
Dimenziócsökkentés | |
Strukturális előrejelzés | |
Anomália észlelése | |
Grafikon valószínűségi modellek | |
Neurális hálózatok | |
Megerősítő tanulás |
|
Elmélet | |
Folyóiratok és konferenciák |
|