Sztochasztikus szomszéd beágyazás t-elosztással

A t -distributed Stochastic Neighbor Embedding ( t-SNE) egy gépi tanulási algoritmus a  vizualizációhoz , amelyet Laurens van der Maaten és Geoffrey Hinton fejlesztett ki [1] . Ez egy nemlineáris dimenziócsökkentési technika , amely kiválóan alkalmas nagy dimenziós adatok beágyazására kis dimenziós térben (2D vagy 3D) való megjelenítés céljából Konkrétan, a módszer minden nagydimenziós objektumot két- vagy háromdimenziós ponttal úgy modellez, hogy a hasonló objektumokat egymáshoz közel elhelyezkedő pontok, a különböző pontokat pedig nagy valószínűséggel az egymástól távol eső pontok modellezzék.

Leírás

A t-SNE algoritmus két fő lépésből áll. Először is, a t-SNE valószínűségi eloszlást hoz létre a nagydimenziós jellemzők párja között, így nagy valószínűséggel hasonló jellemzők kerülnek kiválasztásra, míg nem valószínű, hogy eltérő pontokat választanak ki. Ezután a t-SNE hasonló valószínűségi eloszlást határoz meg egy kis dimenziós tér pontjai között, és minimalizálja a Kullback-Leibler távolságot a két eloszlás között, figyelembe véve a pontok helyzetét. Vegye figyelembe, hogy az eredeti algoritmus az objektumok közötti euklideszi távolságot használja a hasonlóság mérésének alapjául, ez szükség szerint módosítható.

A t-SNE algoritmust számos alkalmazás vizualizálására használták, beleértve a számítógépes biztonsági kutatásokat [2] , a zeneelemzést [3] , a rákkutatást [4] , a bioinformatikát [5] és az orvosbiológiai jelfeldolgozást . [6] . Az algoritmust gyakran használják mesterséges neurális hálózatból nyert magas szintű reprezentációk megjelenítésére [7] .

Mivel a t-SNE kijelzőket gyakran használják klaszterek megjelenítésére , és a paraméterezés megválasztása jelentősen befolyásolhatja a klaszterek megjelenítését, a t-SNE algoritmus paramétereivel való munkaképesség szükséges. Interaktív [ kifejezés ismeretlen ] vizsgálatok [8] [9] szükségesek lehetnek a paraméterek kiválasztásához és az eredmények validálásához . Bebizonyosodott, hogy a t-SNE algoritmus gyakran képes az egymástól jól elkülönülő klaszterek kimutatására, és a paraméterek speciális megválasztásával közelíteni a spektrális klaszterezés egy egyszerű formáját [10] .

Részletek

Adott egy sor nagydimenziós jellemzőt, a t-SNE először kiszámítja a valószínűségeket , amelyek arányosak a jellemzők hasonlóságával, és a következők szerint:

Van der Maaten és Hinton kifejtette: "Az adatpontnak egy ponthoz való hasonlósága annak a feltételes valószínűsége , hogy a -t választják szomszédos pontnak, ha a szomszédokat arányosan választják ki a Gauss-féle valószínűségi sűrűségükkel, amelynek középpontja " [1] .

Ezenkívül a c valószínűségeket nullával egyenlőnek tekintjük:

A Gauss-kernelek sávszélességét a felezési módszerrel úgy állítjuk be , hogy a feltételes eloszlás perplexitása egyenlő legyen az előre meghatározott perplexitással. Ennek eredményeként a sávszélesség az adatsűrűséghez igazodik - az adattér sűrűbb részein kisebb értékeket használnak.

Mivel a Gauss-kernel az euklideszi távolságot használja , ki van téve a dimenzionalitás átkának, és a nagy dimenziós adatokban, amikor a távolságok megkülönböztethetetlenné válnak, túlságosan hasonlóvá válnak (aszimptotikusan konvergálnak egy állandóhoz). Javasoljuk, hogy a távolságot exponenciális transzformációval állítsuk be az egyes pontok belső mérete a probléma enyhítésére [11] .

A t-SNE algoritmus olyan -dimenziós térre ( s ) való leképezésre törekszik, amely a lehető legjobban tükrözi a hasonlóságokat . Ehhez az algoritmus két pont közötti hasonlóságot méri, és nagyon hasonló megközelítést alkalmaz. Konkrétan úgy van meghatározva

Itt egy súlyozott farkú Student-féle t-eloszlást használunk (egy szabadságfokkal, ami megegyezik a Cauchy-eloszlással ) az alacsony dimenziós térben lévő pontok közötti hasonlóság mérésére annak érdekében, hogy a különböző objektumokat egymástól távol el lehessen helyezni. a térképen. Vegye figyelembe, hogy ebben az esetben is beállítjuk

A pontok elhelyezkedését az alacsony dimenziós térben úgy határozzuk meg, hogy minimalizáljuk az eloszlás (aszimmetrikus) Kullback-Leibler távolságát az eloszlástól , azaz.

A Kullback-Leibler távolság minimálisra csökkentése a pontokhoz képest gradiens süllyedés használatával történik . Az optimalizálás eredménye egy olyan leképezés, amely tükrözi a nagydimenziós térben lévő objektumok közötti hasonlóságot.

Szoftver

Jegyzetek

  1. 12 van der Maaten , Hinton, 2008 , p. 2579–2605.
  2. Gashi, Stankovic, Leita, Thonnard, 2009 , p. 4–11.
  3. Hamel, Eck, 2010 , p. 339–344.
  4. Jamieson, Giger, Drukker, Lui, Yuan, Bhooshan, 2010 , p. 339–35.
  5. Wallach, Liliian, 2009 , p. 615–620.
  6. Birjandtalab, Pouyan és Nourani, 2016 , p. 595–598.
  7. Oláh blogja, 2015 .
  8. Pezzotti, Lelieveldt, van der Maaten et al., 2017 , p. 1739–1752
  9. Wattenberg, Viégas, Johnson, 2016 .
  10. Linderman, Steinerberger, 2017 .
  11. Schubert, Gertz, 2017 , p. 188–203.

Irodalom

Linkek