A t -distributed Stochastic Neighbor Embedding ( t-SNE) egy gépi tanulási algoritmus a vizualizációhoz , amelyet Laurens van der Maaten és Geoffrey Hinton fejlesztett ki [1] . Ez egy nemlineáris dimenziócsökkentési technika , amely kiválóan alkalmas nagy dimenziós adatok beágyazására kis dimenziós térben (2D vagy 3D) való megjelenítés céljából Konkrétan, a módszer minden nagydimenziós objektumot két- vagy háromdimenziós ponttal úgy modellez, hogy a hasonló objektumokat egymáshoz közel elhelyezkedő pontok, a különböző pontokat pedig nagy valószínűséggel az egymástól távol eső pontok modellezzék.
A t-SNE algoritmus két fő lépésből áll. Először is, a t-SNE valószínűségi eloszlást hoz létre a nagydimenziós jellemzők párja között, így nagy valószínűséggel hasonló jellemzők kerülnek kiválasztásra, míg nem valószínű, hogy eltérő pontokat választanak ki. Ezután a t-SNE hasonló valószínűségi eloszlást határoz meg egy kis dimenziós tér pontjai között, és minimalizálja a Kullback-Leibler távolságot a két eloszlás között, figyelembe véve a pontok helyzetét. Vegye figyelembe, hogy az eredeti algoritmus az objektumok közötti euklideszi távolságot használja a hasonlóság mérésének alapjául, ez szükség szerint módosítható.
A t-SNE algoritmust számos alkalmazás vizualizálására használták, beleértve a számítógépes biztonsági kutatásokat [2] , a zeneelemzést [3] , a rákkutatást [4] , a bioinformatikát [5] és az orvosbiológiai jelfeldolgozást . [6] . Az algoritmust gyakran használják mesterséges neurális hálózatból nyert magas szintű reprezentációk megjelenítésére [7] .
Mivel a t-SNE kijelzőket gyakran használják klaszterek megjelenítésére , és a paraméterezés megválasztása jelentősen befolyásolhatja a klaszterek megjelenítését, a t-SNE algoritmus paramétereivel való munkaképesség szükséges. Interaktív [ kifejezés ismeretlen ] vizsgálatok [8] [9] szükségesek lehetnek a paraméterek kiválasztásához és az eredmények validálásához . Bebizonyosodott, hogy a t-SNE algoritmus gyakran képes az egymástól jól elkülönülő klaszterek kimutatására, és a paraméterek speciális megválasztásával közelíteni a spektrális klaszterezés egy egyszerű formáját [10] .
Adott egy sor nagydimenziós jellemzőt, a t-SNE először kiszámítja a valószínűségeket , amelyek arányosak a jellemzők hasonlóságával, és a következők szerint:
Van der Maaten és Hinton kifejtette: "Az adatpontnak egy ponthoz való hasonlósága annak a feltételes valószínűsége , hogy a -t választják szomszédos pontnak, ha a szomszédokat arányosan választják ki a Gauss-féle valószínűségi sűrűségükkel, amelynek középpontja " [1] .
Ezenkívül a c valószínűségeket nullával egyenlőnek tekintjük:
A Gauss-kernelek sávszélességét a felezési módszerrel úgy állítjuk be , hogy a feltételes eloszlás perplexitása egyenlő legyen az előre meghatározott perplexitással. Ennek eredményeként a sávszélesség az adatsűrűséghez igazodik - az adattér sűrűbb részein kisebb értékeket használnak.
Mivel a Gauss-kernel az euklideszi távolságot használja , ki van téve a dimenzionalitás átkának, és a nagy dimenziós adatokban, amikor a távolságok megkülönböztethetetlenné válnak, túlságosan hasonlóvá válnak (aszimptotikusan konvergálnak egy állandóhoz). Javasoljuk, hogy a távolságot exponenciális transzformációval állítsuk be az egyes pontok belső mérete a probléma enyhítésére [11] .
A t-SNE algoritmus olyan -dimenziós térre ( s ) való leképezésre törekszik, amely a lehető legjobban tükrözi a hasonlóságokat . Ehhez az algoritmus két pont közötti hasonlóságot méri, és nagyon hasonló megközelítést alkalmaz. Konkrétan úgy van meghatározva
Itt egy súlyozott farkú Student-féle t-eloszlást használunk (egy szabadságfokkal, ami megegyezik a Cauchy-eloszlással ) az alacsony dimenziós térben lévő pontok közötti hasonlóság mérésére annak érdekében, hogy a különböző objektumokat egymástól távol el lehessen helyezni. a térképen. Vegye figyelembe, hogy ebben az esetben is beállítjuk
A pontok elhelyezkedését az alacsony dimenziós térben úgy határozzuk meg, hogy minimalizáljuk az eloszlás (aszimmetrikus) Kullback-Leibler távolságát az eloszlástól , azaz.
A Kullback-Leibler távolság minimálisra csökkentése a pontokhoz képest gradiens süllyedés használatával történik . Az optimalizálás eredménye egy olyan leképezés, amely tükrözi a nagydimenziós térben lévő objektumok közötti hasonlóságot.
Gépi tanulás és adatbányászat | |
---|---|
Feladatok | |
Tanulás tanárral | |
klaszteranalízis | |
Dimenziócsökkentés | |
Strukturális előrejelzés | |
Anomália észlelése | |
Grafikon valószínűségi modellek | |
Neurális hálózatok | |
Megerősítő tanulás |
|
Elmélet | |
Folyóiratok és konferenciák |
|