A Boltzmann gép egyfajta sztochasztikus visszatérő neurális hálózat , amelyet Jeffrey Hinton és Terry Sejnowski talált fel 1985-ben [1] . A Boltzmann gép a Hopfield hálózat sztochasztikus generatív változatának tekinthető .
A statisztikusok az ilyen hálózatokat véletlenszerű Markov mezőknek nevezik . A hálózatot Boltzmann gépnek nevezték el Ludwig Boltzmann osztrák fizikusról, a statisztikai fizika egyik megalapítójáról .
Ez a hálózat annealing szimulációs algoritmust használ a tanuláshoz , és az első olyan neurális hálózatnak bizonyult, amely képes belső reprezentációkat tanulni és összetett kombinatorikus problémákat megoldani. Ennek ellenére számos probléma miatt a korlátlan csatlakozási képességű Boltzmann gépek gyakorlati problémák megoldására nem használhatók. Ha a kapcsolat korlátozott, akkor a képzés elég hatékony lehet ahhoz, hogy a gyakorlatban is használható legyen. Konkrétan az úgynevezett mély bizalomháló a korlátozott Boltzmann-gépek kaszkádjából épül fel .
A Hopfield-hálózathoz hasonlóan a Boltzmann-gép is neuronok hálózata, amelyhez az "energia" fogalmát definiálják. A globális energia számítása a Hopfield-hálózathoz hasonló formában történik: [2]
Ahol:
A linkekre a következő korlátozások vonatkoznak:
A Hopfield hálózat egyik fő hátránya az a tendencia, hogy a hálózat állapotát lokális, nem pedig globális minimumon "stabilizálja". A gyakorlatban kívánatos, hogy a hálózat gyakrabban térjen át mélyenergia-minimumokra, mint a sekélyekre, és hogy a hálózat relatív valószínűsége két különböző energiájú minimum valamelyikére váltson át csak azok mélységének arányától függjön. Ez lehetővé tenné az adott kimeneti állapotvektorok megszerzésének valószínűségét a rendszer energiafelületének profiljának megváltoztatásával a kötéssúlyok módosításával. Ezen megfontolások alapján készült el a Boltzmann gép.
S. Kirpatrické az az ötlete, hogy a "termikus zajt" használják a helyi minimumokból való kilépésre és a mélyebb minimumok elérésének valószínűségének növelésére. Ezen ötlet alapján egy lágyítási szimulációs algoritmust fejlesztettek ki .
Vezessünk be néhány paramétert – a termikus zajszint analógját. Ezután a Boltzmann valószínűségi függvény alapján meghatározzuk egy bizonyos neuron aktivitásának valószínűségét:
hol van a hőzaj szintje a hálózatban; a th neuron és az összes jelenleg aktív neuron közötti kapcsolatok súlyának összege .
Bár a gyakorlatban a Boltzmann-gép betanítási képességei korlátozottak, ezek a problémák megoldhatók a korlátozott Boltzmann-gép (RBM) architektúra alkalmazásával. Ebben az architektúrában csak a rejtett és látható neuronok között léteznek kapcsolatok, de az azonos osztályba tartozó neuronok között nincs kapcsolat. Egy ilyen architektúrát eredetileg Paul Smolensky használt 1986-ban Harmonium néven [3] , de csak azután vált népszerűvé, hogy Hinton a 2000-es évek közepén feltalálta a gyors tanuló algoritmusokat.
A korlátozott Boltzmann gépeket mély tanulási hálózatokban használják . A mély hithálózatok különösen az RBM „átfedésével”, majd a backpropagation algoritmussal történő újraképzéssel érhetők el.
A mesterséges neurális hálózatok típusai | |
---|---|
|
Gépi tanulás és adatbányászat | |
---|---|
Feladatok | |
Tanulás tanárral | |
klaszteranalízis | |
Dimenziócsökkentés | |
Strukturális előrejelzés | |
Anomália észlelése | |
Grafikon valószínűségi modellek | |
Neurális hálózatok | |
Megerősítő tanulás |
|
Elmélet | |
Folyóiratok és konferenciák |
|