Perceptron változó SA kapcsolatokkal — Rosenblatt perceptron több R-elemmel és változó (tanulható) SA és AR kapcsolatokkal. Az elnevezésben az SA kapcsolaton van a hangsúly, hiszen ez az utolsó megszorítás, amelyet Rosenblatt eltávolított egy elemi perceptron figyelembevételekor, aminek eredményeként a legáltalánosabb formájú, S -> A -> R topológiai szerkezetű rendszer jön létre. Ez a perceptron a Rumelhart-féle többrétegű perceptron megfelelője , bár maga Rosenblatt ezen a néven csak két rétegű kapcsolat esetét vették figyelembe. De ez elég ahhoz, hogy a perceptronok ezen alfaját ugyanúgy jellemezzük, mint azt Rumelhart tette. A perceptronok képességeinek összetettebb elemzéséhez Rosenblatt a négyrétegű perceptronokra tér át, és csak többrétegű perceptronoknak tekinti őket .
Ahhoz, hogy a hibajavítási módszert a perceptron összes rétegének betanítására alkalmazni lehessen, nemcsak a külső R-elemekre, hanem a belső A-elemekre is meg kell határozni a hibát. A nehézség abban rejlik, hogy ha a probléma körülményei közül a kívánt reakció adott, akkor az A-elem kívánt állapota ismeretlen marad. Csak azzal lehet vitatkozni, hogy az A-elem kívánt állapota az az állapot, amelyben aktivitása inkább hozzájárul, mint akadályozza egy adott reakció perceptron általi megtanulását [1] . Lehetséges lenne a rendszer globális elemzése, de ez azt jelentené, hogy a megerősítő rendszer előre ismerné a megoldást, vagyis a tényleges tanulás nem következne be. Valójában pontosan ezt javasolta Bongard , de egy ilyen megoldás nem garantálja a konvergenciát, és erőforrásigényesebb, mint az iteratív képzés. Ezért Rosenblatt a helyi információs szabályt javasolta :
Bármely A-elem esetén a megengedhető hiba értéke csak a tevékenységéhez kapcsolódó információtól vagy a hozzá érkező jelektől, a kimeneti kapcsolatainak súlyától és a hiba eloszlásától függ a kimenetén a t időpontban.
Más szóval, egy A-elem hibáját csak maga az A-elem és azok az elemek határozhatják meg, amelyekhez közvetlenül kapcsolódik.
Rosenblatt bebizonyította a következő tételt:
Adott egy háromrétegű perceptron soros kapcsolatokkal, egyszerű A és R elemekkel, valamint változó SA kapcsolatokkal, valamint egy C(W) besorolással, amelyre ismert megoldás. Ekkor kiderülhet, hogy a megoldás nem érhető el determinisztikus korrekciós eljárással, amely engedelmeskedik a helyi információs szabálynak.
Az ilyen korrekciós folyamat speciális esete a visszaszaporítási módszer .
Annak bizonyítására, hogy nem determinisztikus (sztochasztikus) módszerrel is megoldható a megoldás, Rosenblatt a következő tételt bizonyította:
Adott egy háromrétegű perceptron soros linkekkel, egyszerű A és R elemekkel, változó SA linkekkel, korlátos AR link súlyokkal és egy C(W) osztályozással, amelyre létezik megoldás. Ekkor eggyel egyenlő valószínűséggel a C(W) megoldása véges idő alatt megkapható a hiba-visszacsatolás korrekciós módszerrel, feltéve, hogy minden W-ből származó inger szükségszerűen többször is megjelenik egy véges időintervallumban, és minden valószínűség , és nagyobb, mint 0 és kisebb, mint 1.
Így ahhoz, hogy egy neurális hálózatban egynél több réteget képezzünk, és 100%-os konvergenciát érjünk el, elég sok feltételnek kell teljesülnie. És egy ilyen algoritmust Rosenblatt javasolt a hiba-visszaterjesztési korrekciós módszer néven , amit nem szabad összetéveszteni a hiba-visszaterjesztési módszerrel .