Delta szabály

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2018. szeptember 22-én felülvizsgált verziótól ; az ellenőrzések 11 szerkesztést igényelnek .

A delta szabály egy perceptron tanulási  módszer , amely a hibafelületre való gradiens süllyedés elvén alapul . Ennek továbbfejlesztése a visszaszaporítási módszer megalkotásához vezetett .

Delta szabály

Valójában a delta-szabályt a jelölés matematikai alakjának nevezik. Legyen a  vektor a bemeneti jelek vektora  , a vektor pedig azoknak a jeleknek a vektora, amelyeket a perceptrontól a bemeneti vektor hatására kell fogadni. Itt  van a perceptront alkotó neuronok száma. A perceptron bemenetein kapott bemeneti jeleket súlyozták és összegezték, ami a perceptron kimeneti értékeinek vektorát eredményezte. Ekkor meghatározható a hibavektor , amelynek mérete egybeesik a kimeneti jelek vektorának méretével. A hibavektor összetevőit a perceptron neuron kimeneti jelének várható és tényleges értéke közötti különbségként definiáljuk:

Ilyen jelölésekkel az i-edik neuron j-edik súlyának beállítására szolgáló képlet a következőképpen írható fel:

A jel száma egytől a bemeneti vektor méretéig változik . A neuronok száma egytől a neuronok számáig változik . Az érték  az aktuális oktatási iteráció száma. Így a neuron bemeneti jelének súlya az idegsejt teljes hibájának értékével arányosan a hiba csökkenésének irányába változik. Gyakran arányossági tényezőt vezetnek be , amellyel a hiba nagyságát megszorozzák. Ezt az együtthatót a tanulás sebességének vagy sebességének [1] nevezzük . Így a súlyok beállításának végső képlete:

Általános delta szabály

A perceptron által megoldott feladatok körének bővítésére Widrow és Hoff [2] szigmoidális aktivációs függvényt javasolt az idegsejtek számára. Ez lehetővé tette, hogy a perceptron folyamatos jelekkel működjön, de a tanulási algoritmus módosítására volt szükség [3] . A módosított algoritmus célja a négyzetgyökér hibafüggvény minimalizálása:

Ezt a függvényt a súlymátrix határozza meg . Itt  van a neuron  száma, és a bemenet száma. A függvény által leírt felület pszeudo -paraboloid alakú [4] . A tanulás feladata ennek a felületnek a globális minimumának megtalálása. A minimum megtalálásának egyik módja a gradiens süllyedés módszere . A súlyok a felület anti-lejtés irányában vannak beállítva:

Itt  van a tanulási arány együtthatója.

A hibafüggvény összetett, és elsősorban a perceptron kimeneti jeleitől függ. Az összetett függvények megkülönböztetésének szabályai szerint:

(*)

Az egyes neuronok kimeneti jelét a következő képlet határozza meg:

Itt  van a perceptron bemeneteinek száma,  a j-edik bemeneten lévő jel és  az aktiválási funkció. Akkor kapjuk:

(**)

A hibafüggvényt a kimeneti jel értékével differenciálva kapjuk:

(***)

A (**) és (***) képleteket a (*) kifejezésbe behelyettesítve egy kifejezést kapunk az i-edik neuron j-edik bemenetének súlyának beállítására bármely aktiválási függvényre [5] :

Ebből a képletből látható, hogy aktivációs függvényként az általánosított delta szabály alkalmazásakor a neuronok aktivációs függvényének folyamatosan differenciálhatónak kell lennie a teljes x tengely mentén. Az egyszerű deriválttal (például logisztikus görbével vagy hiperbolikus érintővel) rendelkező aktiválási függvények előnyt jelentenek.

A delta szabály alapján Widrow és Hopf megalkotta az egyik első hardveres neurokomputert , az Adalint ( 1960 ).

Jegyzetek

  1. Nielsen, Michael A. Neurális hálózatok és mély tanulás . — 2015-01-01. Archiválva az eredetiből 2016. szeptember 6-án.
  2. Widrow B., Hoff ME - Adaptív kapcsolóáramkörök. 1969 IRE WESTCON konferencia rekord. – New York, 1960
  3. L. N. Yasnitsky – Bevezetés a mesterséges intelligenciába. - 34-36
  4. L. N. Yasnitsky – Bevezetés a mesterséges intelligenciába. - 35. o
  5. L. N. Yasnitsky – Bevezetés a mesterséges intelligenciába. - 36. o

Lásd még

Irodalom