A delta szabály egy perceptron tanulási módszer , amely a hibafelületre való gradiens süllyedés elvén alapul . Ennek továbbfejlesztése a visszaszaporítási módszer megalkotásához vezetett .
Valójában a delta-szabályt a jelölés matematikai alakjának nevezik. Legyen a vektor a bemeneti jelek vektora , a vektor pedig azoknak a jeleknek a vektora, amelyeket a perceptrontól a bemeneti vektor hatására kell fogadni. Itt van a perceptront alkotó neuronok száma. A perceptron bemenetein kapott bemeneti jeleket súlyozták és összegezték, ami a perceptron kimeneti értékeinek vektorát eredményezte. Ekkor meghatározható a hibavektor , amelynek mérete egybeesik a kimeneti jelek vektorának méretével. A hibavektor összetevőit a perceptron neuron kimeneti jelének várható és tényleges értéke közötti különbségként definiáljuk:
Ilyen jelölésekkel az i-edik neuron j-edik súlyának beállítására szolgáló képlet a következőképpen írható fel:
A jel száma egytől a bemeneti vektor méretéig változik . A neuronok száma egytől a neuronok számáig változik . Az érték az aktuális oktatási iteráció száma. Így a neuron bemeneti jelének súlya az idegsejt teljes hibájának értékével arányosan a hiba csökkenésének irányába változik. Gyakran arányossági tényezőt vezetnek be , amellyel a hiba nagyságát megszorozzák. Ezt az együtthatót a tanulás sebességének vagy sebességének [1] nevezzük . Így a súlyok beállításának végső képlete:
A perceptron által megoldott feladatok körének bővítésére Widrow és Hoff [2] szigmoidális aktivációs függvényt javasolt az idegsejtek számára. Ez lehetővé tette, hogy a perceptron folyamatos jelekkel működjön, de a tanulási algoritmus módosítására volt szükség [3] . A módosított algoritmus célja a négyzetgyökér hibafüggvény minimalizálása:
Ezt a függvényt a súlymátrix határozza meg . Itt van a neuron száma, és a bemenet száma. A függvény által leírt felület pszeudo -paraboloid alakú [4] . A tanulás feladata ennek a felületnek a globális minimumának megtalálása. A minimum megtalálásának egyik módja a gradiens süllyedés módszere . A súlyok a felület anti-lejtés irányában vannak beállítva:
Itt van a tanulási arány együtthatója.
A hibafüggvény összetett, és elsősorban a perceptron kimeneti jeleitől függ. Az összetett függvények megkülönböztetésének szabályai szerint:
(*)Az egyes neuronok kimeneti jelét a következő képlet határozza meg:
Itt van a perceptron bemeneteinek száma, a j-edik bemeneten lévő jel és az aktiválási funkció. Akkor kapjuk:
(**)A hibafüggvényt a kimeneti jel értékével differenciálva kapjuk:
(***)A (**) és (***) képleteket a (*) kifejezésbe behelyettesítve egy kifejezést kapunk az i-edik neuron j-edik bemenetének súlyának beállítására bármely aktiválási függvényre [5] :
Ebből a képletből látható, hogy aktivációs függvényként az általánosított delta szabály alkalmazásakor a neuronok aktivációs függvényének folyamatosan differenciálhatónak kell lennie a teljes x tengely mentén. Az egyszerű deriválttal (például logisztikus görbével vagy hiperbolikus érintővel) rendelkező aktiválási függvények előnyt jelentenek.
A delta szabály alapján Widrow és Hopf megalkotta az egyik első hardveres neurokomputert , az Adalint ( 1960 ).