Levenberg-Marquardt algoritmus

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2019. augusztus 29-én felülvizsgált verziótól ; az ellenőrzések 6 szerkesztést igényelnek .

A Levenberg-Marquardt algoritmus egy optimalizálási  módszer , amely a legkisebb négyzetek problémáinak megoldására irányul. Ez a Newton-módszer alternatívája . Ez utóbbi kombinációjaként gradiens süllyedéssel vagy konfidenciarégió módszerként [1] tekinthető (Marquard, 492. o.). Az algoritmust egymástól függetlenül Levenberg ( 1944 ) és Marquardt ( 1963 ) fogalmazta meg .

A probléma leírása

Legyen a formának egy legkisebb négyzetek problémája:

Ezt a problémát egy speciális gradiens és Hess-mátrix különbözteti meg :

ahol  a vektorfüggvény Jacobi - mátrixa ,  komponensének Hess -mátrixa .

Ekkor a Gauss-Newton módszer szerint, feltételezve az over tag domináns szerepét (vagyis ha a norma lényegesen kisebb, mint a mátrix maximális sajátértéke ), a rendszerből meghatározzuk a következő irányt :

Algoritmus

A Levenberg-Marquardt keresési irányt a rendszer határozza meg:

ahol  az egyes lépésekre specifikus nemnegatív állandó,  az azonosságmátrix.

A választás úgy tehető meg, hogy elegendő a monoton leereszkedéshez a maradék függvény mentén , vagyis a paramétert a feltétel eléréséig növeljük . Ezenkívül a paraméter beállítható a próbalépések eredményeként elért függvény tényleges változásai és az interpoláció során bekövetkezett változások várható értékei közötti kapcsolat alapján . Fletcher hasonló eljárást épített ki.

Az is kimutatható, hogy megfelel a feltételnek:

hol  van a paraméterhez tartozó paraméter .

A gradiens süllyedés és a Gauss-Newton módszer kombinációja

Könnyen belátható, hogy , esetén az algoritmus Gauss-Newton módszerré degenerálódik , és elég nagy esetén az irány kissé eltér a legmeredekebb süllyedés irányától. Így a paraméter helyes kiválasztásával a minimalizált függvény monoton csökkenése érhető el. Az egyenlőtlenség mindig érvényesíthető, ha elég nagyot választunk. Ebben az esetben azonban az első tagban található görbületi információ elveszik, és megjelenik a gradiens süllyedés módszerének minden hátránya : enyhe lejtős helyeken kicsi az antigradiens, olyan helyeken, ahol meredek lejtőn nagy, míg az első esetben kívánatos nagy lépéseket tenni, a másodikban pedig kicsi. Tehát egyrészt, ha a maradék függvény által meghatározott felületen egy hosszú és keskeny mélyedés van , akkor a mélyedés alapja mentén a gradiens összetevői kicsik, a falak felé pedig nagyok, míg kívánatos a szakadék tövében haladni. Marquardt javasolta a görbületre vonatkozó információk figyelembevételének módszerét. Észrevette, hogy ha az identitásmátrixot a hesseni mátrix átlójával helyettesítjük, akkor enyhe szakaszokon lépésnövekedést, meredek lejtőkön pedig csökkenést érhetünk el:

Konfidencia intervallum módszer

Ha a Levenberg-Marquardt algoritmust a konfidenciaintervallumok módszerének tekintjük, heurisztikát használva , kiválasztunk egy intervallumot , amelyre a függvény közelítése épül :

Ebben az esetben a lépést a minimalizálási probléma alapján határozzuk meg :

Jegyzetek

  1. B. T. Polyak. Newton módszere és szerepe az optimalizálásban és a számítási matematikában  // Az Orosz Tudományos Akadémia Rendszerelemző Intézetének közleménye. - 2006. - T. 28 . – S. 44–62 . Archiválva az eredetiből 2018. október 24-én.

Irodalom

Linkek