A rekurzív neurális hálózatok ( eng. Recursive neural network ; RvNN ) a neurális hálózatok egy olyan típusa, amely változó hosszúságú adatokkal dolgozik. A rekurzív hálózati modellek hierarchikus mintastruktúrákat használnak a képzésben. Például olyan jelenetekből összeállított képek, amelyek sok objektumot tartalmazó részjeleneteket egyesítenek. A jelenet szerkezetének feltárása és dekonstrukciója nem triviális feladat. Ebben az esetben mind az egyes objektumok, mind a jelenet teljes szerkezetének azonosítása szükséges.
A rekurzív hálózatokban az azonos súlyú neuronok a hálózat szerkezetének megfelelően rekurzív módon aktiválódnak. A rekurzív hálózat működése során modellt dolgoznak ki változó méretű struktúrák és skaláris struktúrák előrejelzésére a struktúra topológiának megfelelő aktiválásával. Az RvNN-eket sikeresen alkalmazták szekvenciális struktúrák és fák betanítására a természetes nyelvi feldolgozásban , ahol a kifejezések és mondatok modellezése szóvektoros reprezentációkon keresztül történik . Az RvNN-ek eredetileg a struktúrák elosztott ábrázolására jelentek meg a matematikai logika predikátumait használva . [1] A rekurzív hálózatok és az első modellek fejlesztése az 1990-es évek közepén kezdődött. [2] [3]
A legegyszerűbb architektúrában a hálózat csomópontjai konvergálnak a szülőkhöz egy rejtett rétegsúlymátrixon keresztül, amelyet a hálózatban ismételten használnak, és egy hiperbolikus érintő típusú nemlineáris aktiválási függvényen keresztül . Ha c 1 és c 2 a hálózati csomópontok n - dimenziós reprezentációi, akkor a szüleik is n - dimenziós vektorok, kiszámítva
Itt W a betanított súlymátrix .
Ezt az architektúrát, némi továbbfejlesztéssel, természetes képjelenetek szekvenciális dekódolására vagy természetes nyelvi mondatok strukturálására használják. [négy]
Rekurzív vízesés korreláció A RecCC három tartományban működő rekurzív hálózatok felépítésének megközelítése [2] , az első ilyen jellegű alkalmazások a kémiában jelentek meg [5] , a kiterjesztés pedig irányított aciklikus gráfot alkot . [6]
2004-ben egy felügyelet nélküli rekurzív hálózati tanulási rendszert javasoltak . [7] [8]
A tenzoros rekurzív hálózatok egyetlen tenzorfüggvényt használnak az összes fa csomópontjához. [9]
Az edzéshez általában a sztochasztikus gradiens süllyedést (SGD) használják. A gradienst a végponttól végpontig terjedő hiba-visszaterjesztési keretrendszer (BPTS) határozza meg. Ez a módszer az ismétlődő neurális hálózatok betanítására használt idősor-visszaterjesztés módosítása .
A szakirodalom megerősíti az univerzális közelítés lehetőségét a visszatérő hálózatok által fa típusú hálózatokon keresztül. [10] [11]
A visszatérő neurális hálózat egy meghatározott szerkezetű rekurzív hálózat - lineáris lánc formájában. A rekurzív hálózatok általános típusú struktúrákon működnek, beleértve a hierarchiát is, a visszatérő hálózatok kizárólag lineáris időbeli haladással működnek, egy rejtett neurális rétegen keresztül összekötve az előző időpontot a következővel.
A fa visszhanghálózat a Reservoir számítási paradigmát használó rekurzív neurális hálózatok [12] hatékony példája.
A szerkezet gráfokra való kiterjesztésével létrejön egy grafikus neurális hálózat (GNN), [13] , egy neurális hálózat a gráfokhoz (NN4G), [14] és újabb konvolúciós neurális hálózatok a gráfokhoz.
A mesterséges neurális hálózatok típusai | |
---|---|
|
Gépi tanulás és adatbányászat | |
---|---|
Feladatok | |
Tanulás tanárral | |
klaszteranalízis | |
Dimenziócsökkentés | |
Strukturális előrejelzés | |
Anomália észlelése | |
Grafikon valószínűségi modellek | |
Neurális hálózatok | |
Megerősítő tanulás |
|
Elmélet | |
Folyóiratok és konferenciák |
|