Neurális hálózatok verbalizálása

A verbalizáció egy szintetizált és már betanított neurális hálózat munkájának minimalizált leírása , több, egymástól függő algebrai vagy logikai függvény formájában.

A verbalizáció céljai

A betanított neurális hálózatok egyik fő hátránya sok felhasználó szemszögéből az, hogy egy képzett neurális hálózatból nehéz explicit és felhasználóbarát algoritmust kinyerni a probléma megoldására – maga a neurális hálózat ez az algoritmus. , és ha a hálózat szerkezete összetett, akkor ez az algoritmus értelmezhetetlen. Egy speciálisan felépített egyszerűsítési és verbalizációs eljárás azonban gyakran lehetővé teszi explicit megoldási módszer kivonatát.

A verbalizációt elsősorban egy betanított és egyszerűsített neurális hálózat előkészítése céljából, programkódban vagy speciális elektronikus (optoelektronikai) eszköz formájában történő megvalósításra, valamint az eredmények explicit tudás formájában történő felhasználására hajtják végre . [1] Ebben az esetben a tünetek a neurális hálózat bemeneti értékei, a szindrómák pedig a neuronok  kimenetén lévő értékek . A végszindróma a neurális hálózat kimeneti értéke. A verbalizációt általában speciális csomagok segítségével végzik.

Az egyszerűsítés és a verbalizálás sajátos problémái

  1. A neurális hálózati architektúra egyszerűsítése
  2. A bemeneti jelek számának csökkentése
  3. A neurális hálózat paramétereinek csökkentése kis számú kiválasztott értékre
  4. Csökkentett követelmények a bemeneti jel pontosságára vonatkozóan
  5. Explicit tudás megfogalmazása tünet-szindrómás struktúra és explicit képletek tünetekből szindrómák kialakítására.

Vékonyító algoritmusok

A hálózat verbalizálása előtt, általában termelési szabályok segítségével, bizonyos típusú hálózatok esetében javasolták a hálózatok szerkezetének egyszerűsítését - ritkítását. A metszés lényege, hogy a modell azon elemei, illetve a hálózat azon neuronjai, amelyeknek alig van hatása a közelítési hibára , a közelítés minőségének jelentős romlása nélkül kizárhatók a modellből [2] . Ugyanakkor szem előtt kell tartani, hogy ez csak a megoldandó problémára igaz. Ha lesznek új statisztikák a képzésre, akkor a ritka hálózat elveszíti az általánosító képességét, ami akkor lett volna, ha a kapcsolatok nem vesznek el (legalábbis az ellenkezője nem igazolódott). Így veszteséges algoritmusokról beszélünk, amelyek bizonyos problémákra használhatók, de nem használhatók a problémától függetlenül. Növekvő specializáció, elvesztik rugalmasságukat.

Rumelhart többrétegű perceptronjához és az azon alapulókhoz

A másodrendű módszert ( a második származékok számításán alapuló érzékenységi elemzést használva) LeCun javasolta 1990-ben [3] , és "optimális agykárosodásnak" nevezték. Aztán Hussibey [4] fejlesztette ki, és az "optimális agysebészet" nevet kapta.

Valamivel korábban módszereket javasoltak a neurális hálózatok vékonyítására [5] és csontvázasítására [6] , amelyek egyszerűen a legkisebb súllyal rendelkező elemek eltávolításán alapultak ( nullarendű módszerek ).

Végül, ugyanebben az 1990-ben A. N. Gorban egy hatékony módszert javasolt, amely a gradiens módszerekkel történő tanulás során az első származékok elemzésén alapul, és nem igényel külön differenciálást. [7] Az elemek eltávolításának feladatán kívül egyéb egyszerűsítési problémákat is megoldottak: súlyok és jelek szóhosszának csökkentése (durvaság), neuronok aktivációs funkcióinak egyszerűsítése, értelmezhető tudás megszerzése, stb. " kontrasztos neurális hálózatoknak " is nevezik . Az érzékenység főbb mutatóinak leírása az áttekintésben található. [nyolc]

E. M. Mirkes az "Ideal neurocomputer " projektben Gorban megközelítésére és az alkalmazott szoftverfejlesztés tapasztalataira alapozva bevezette a "Contrast" elemet, felépítette annak fő funkcióinak könyvtárát, és kifejlesztett egy leíró nyelvet. [9]

Egy neurális hálózat egyszerűsítésre való felkészítéséhez hasznosnak bizonyul bevezetni a képzés során minimálisra csökkentett munkájának értékelésébe a büntetési feltételeket (angolul büntetés), amely bünteti a bonyolultságot. Ezeket az algoritmusokat A. N. Gorban [7] könyve mutatja be . Ezt a megközelítést később Ishikawa és Zurada fedezte fel újra, és alapozta meg a strukturális tanulás elméletét . [10] [11]

A Rosenblatt perceptronhoz és az azon alapulókhoz

A Rosenblatt-perceptron tizedes algoritmusára nincs szükség. Ennek oka az a tény, hogy Rumelhart többrétegű perceptronjával ellentétben a perceptron nem egy teljesen összefüggő hálózat, vagyis a középső elemtől a bemenetig tartó kapcsolatok számát a kísérletező közvetlenül szabályozhatja a feladat összetettségétől függően. . Ezért nincs szükség extra kapcsolatokkal végzett képzésre, és azonnal kiválaszthatja a feladathoz szükséges kapcsolatok számát. Az ilyen szelekció kísérletileg történik, ha a képzés során konvergenciát kaptunk, akkor tovább csökkenthető. Amint a konvergencia kezdett lényegesen nagyobb számú iterációt igényelni, ez annak a jele, hogy elértük a kívánt kapcsolatokat.

Egy másik szabályozott paraméter, amely jelentősebben befolyásolja a kapcsolatok számát, a középső elemek száma. Minél jobban edzhető a perceptron kisebb számú középső elemmel, annál optimálisabb szerkezetet kapunk.

Ezért ennek a két paraméternek a szabályozásával a ritkítás automatikusan, további algoritmusok nélkül történik.

Jegyzetek

  1. Mirkes E. M. , Logikailag transzparens neurális hálózatok és explicit tudás előállítása adatokból Archív másolat 2008. február 25-én a Wayback Machine -nél , A könyvben: Neuroinformatika / A. N. Gorban, V. L. Dunin-Barkovsky, A. N Kirdin és mások - Novoszibirszk : Tudomány. Az Orosz Tudományos Akadémia Szibériai Vállalkozása, 1998. - 296 p. ISBN 5-02-031410-2
  2. Neurális hálózatok optimális elvékonyodása . Letöltve: 2008. augusztus 30. Az eredetiből archiválva : 2011. május 18..
  3. LeCun Y., Denker J. S., Solla S. A. Optimális agykárosodás Archiválva : 2008. május 20., the Wayback Machine  / Touretzky D. S. ed., Advances in Neural Information Processing Systems 2. Morgan Kaufmann, San Mateo, CA. 1990. P. 598-605.
  4. Hassibi B., Stork D. G. Másodrendű származékok hálózati metszéshez: Optimal brain surgeon Archivált : 2008. május 7., a Wayback Machine  / NIPS 5. 1993.
  5. Sietsma J., Dow RJF, Neurális háló metszés – miért és hogyan. In: Proc. IJCNN'88, San Diego, CA., IEEE, Vol.1. - 325-333.
  6. Mozer MC, Smolensky P. Skeletonization: egy technika a zsír eltávolítására a hálózatból relevanciaértékelésen keresztül. In: Advances in Neural Network Information Processing Systems, Morgan Kaufmann, 1989. Vol.1, pp.107-115.
  7. 1 2 Gorban A.N., Learning neural networks Archivált : 2010. augusztus 9. a Wayback Machine -nél . M.: szerk. Szovjetunió-USA vegyesvállalat „Paragrafus”, 1990. 160. o.
  8. Gorban AN, Mirkes Eu. M., Tsaregorodtsev VG Explicit tudás generálása empirikus adatokból a tanítható neurális hálózatok metszésével Archiválva : 2016. február 17., a Wayback Machine In: Proc. IJCNN'99, Washington DC, 1999. július, IEEE, 4. évf. 6, pp. 4393-4398.
  9. Mirkes E.M., Neurocomputer. Szabványtervezet. Archív másolat 2009. június 15-én a Wayback Machine -nél - Novoszibirszk: Nauka, Siberian Publishing Company RAS, 1999 .- 337 p. ISBN 5-02-031409-9 (9. fejezet: "Kontraszter") Egyéb online példányok: Archivált másolat (hivatkozás nem érhető el) . Letöltve: 2008. október 15. Az eredetiből archiválva : 2009. július 3..   .
  10. Ishikawa S., Strukturális tanulás felejtéssel, Neural Networks, 1996, 9. kötet, 3, 509-521.
  11. Miller DA, Zurada, JM, A strukturális tanulás dinamikus rendszerszemlélete felejtéssel, IEEE Transactions on Neural Networks, Vol. 9, 3, 1998, 508-515.