Az érvek csoportos számbavételének módja

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2021. október 3-án felülvizsgált verziótól ; az ellenőrzések 2 szerkesztést igényelnek .

Az argumentumok csoportos elszámolásának módszere ( MGUA ) többparaméteres adatok matematikai modellezésére szolgáló induktív algoritmusok családja . A módszer a modellek rekurzív szelektív kiválasztásán alapul, amely alapján bonyolultabb modelleket építenek. A modellezés pontossága minden következő rekurziós lépésnél növekszik a modell bonyolultsága miatt.

A módszer szerzője Alekszej Grigorjevics Ivakhnenko , az Ukrán Nemzeti Tudományos Akadémia akadémikusa .

Jurgen Schmidhuber  a GMDH-t a mély tanulás legkorábbi módszereként említi, megjegyezve, hogy már 1971 -ben egy nyolcrétegű neurális hálózat képzésére használták. [1]

Történelem

Algoritmus

A megfigyelések adatait adjuk meg: . Egy bizonyos értelemben a legjobb modellt kell megépíteni .

  1. A felsorolt ​​modellek általános nézetét, az úgynevezett támogatási funkciókat választottuk. A Kolmogorov-Gabor polinomot gyakran használják : A polinomok megválasztása annak a tulajdonságnak köszönhető, hogy a Weierstrass-tétel szerint bármely véges intervallumon folytonos függvény tetszőlegesen nagy pontossággal ábrázolható bizonyos fokú polinomként. A modell összetettségét ebben az esetben az együtthatók száma határozza meg
  2. A támogatási függvények segítségével a modellek különféle változatai épülnek fel néhány vagy az összes argumentumhoz. Például egy változós polinomokat szerkesztenek, polinomokat az összes lehetséges változópárral, polinomokat minden lehetséges változó hármasával stb., polinomot minden változóval. Az egyes modellek együtthatóit a regressziós elemzési módszer határozza meg .
  3. Az összes modell közül több (2-től 10-ig) a legjobbat választották ki. A modellek minőségét a determinációs együttható vagy a hiba szórása , illetve az Y és az eredeti adatok korrelációja határozza meg.
  4. Ha kellően "jó" modellt találunk, vagy a modellek maximálisan megengedhető komplexitását elérjük, akkor az algoritmus véget ér.
  5. Ellenkező esetben a 3. lépésben talált modellek argumentumaként ( ) használhatók a következő iterációs lépés (áttérés a 2. lépésre) támogató függvényeihez. Vagyis a már megtalált modellek részt vesznek a bonyolultabbak kialakításában.

Általában a támaszfüggvény polinom fokszámát nem magasabbra választjuk, mint , ahol a mintavételi pontok száma. Gyakran elegendő másodfokú polinomokat használni támogató függvényként. Ebben az esetben minden iterációs lépésben a kapott polinom mértéke megduplázódik.

A Kolmogorov-Gabor polinom helyett a Fourier-sor is használható . Használatuk akkor van értelme, ha a kezdeti adatokban periodicitás figyelhető meg (például folyók vízállása, levegő hőmérséklete, csapadékmennyiség). Az ebben az esetben kapott modell poliharmonikus [1]  (elérhetetlen link) lesz .

A kezdeti mintát gyakran két részmintára osztják és . A modell együtthatóinak meghatározására részmintavételt , a minőség ( meghatározási együttható vagy szórás) meghatározására almintavételt alkalmazunk. Ebben az esetben az adatmennyiség aránya mindkét mintában 50%/50% vagy 60%/40% lehet.

A statisztikák azt mutatják, hogy minden iterációs lépéssel a szórás csökken. De egy bizonyos összetettségi szint elérése után (az adatok jellegétől és mennyiségétől, valamint a modell általános megjelenésétől függően) a szórás nőni kezd.

Tulajdonságok

Jegyzetek

  1. Schmidhuber, Jürgen. Mély tanulás a neurális hálózatokban: Áttekintés  (határozatlan)  // Neurális hálózatok. - 2015. - T. 61 . - S. 85-117 . - doi : 10.1016/j.neunet.2014.09.003 . - arXiv : 1404.7828 .

Linkek