Nem negatív mátrix kiterjesztése

A nemnegatív mátrixfelbontás ( NMP ), egyben nemnegatív mátrixközelítés is [1] [2] , a többváltozós elemzésben és a lineáris algebrában alkalmazott algoritmusok csoportja , amelyben egy V mátrixot (általában) két mátrixra bontják . W és H , azzal a tulajdonsággal, hogy mindhárom mátrixnak vannak nem negatív bejegyzései. Ez a nem-negativitás megkönnyíti a kapott mátrixok tanulmányozását. Az olyan alkalmazásokban, mint az audiospektrogram feldolgozás vagy az izomaktivitási adatok, a nem-negativitás a kérdéses adatok velejárója. Mivel a probléma általában megoldhatatlan, általában numerikusan közelítik meg.

Az NMR olyan területeken talált alkalmazásra, mint a csillagászat [3] [4] , a számítógépes látás , a dokumentumcsoportosítás [1] , a kemometria , az audiojelfeldolgozás , az ajánlórendszerek [ 5 ] [6] és a bioinformatika [7] .

Történelem

A kemometriában a nem-negatív mátrixbontás hosszú múltra tekint vissza "önhasonló görbefelbontás" néven [8] Ebben az összefüggésben a jobb oldali mátrixban lévő vektorok folytonos görbék, nem pedig diszkrét vektorok. A nem-negatív mátrixbontással kapcsolatos korai munkát egy finn kutatócsoport végezte az 1990-es évek közepén, az úgynevezett pozitív mátrixbontás [9] [10] . A módszer nemnegatív mátrixbontásként vált ismertté , miután Li és Seung megvizsgálták az algoritmus tulajdonságait, és több egyszerű, hasznos algoritmust publikáltak kétféle dekompozícióra [11] [12] .

Háttér

Legyen V mátrix a W és H mátrixok szorzata ,

A mátrixszorzás úgy valósítható meg, hogy a V mátrix oszlopvektorát W -beli oszlopvektorok lineáris kombinációjaként számítjuk ki a H mátrix oszlopaiból származó együtthatók felhasználásával . Vagyis a V mátrix minden oszlopa a következőképpen számítható ki:

ahol v i a V mátrix szorzatának i. oszlopvektora , h i pedig a H mátrix i. oszlopvektora .

A mátrixok szorzásakor a mátrixtényezők mérete jelentősen kisebb lehet, mint a mátrixok szorzatának dimenziója, és ez az a tulajdonság, amely az NMP alá vonja az alapot. Az NMR az eredeti mátrixhoz képest jelentősen csökkentett dimenziójú tényezőket hoz létre. Például, ha V egy m × n mátrix, W egy m × p mátrix, és H egy p × n mátrix, akkor p lényegesen kisebb lehet m -nél és n -nél is .

Íme egy szövegelemző alkalmazáson alapuló példa:

Ez utóbbi tulajdonság a HMP alapja, mivel a példánkban szereplő minden eredeti dokumentumot látens jellemzők kis halmazából állónak tekinthetünk. Az NMR ezeket a tulajdonságokat hozza létre.

Célszerű a W jellemzőmátrixban lévő minden egyes jellemzőt (oszlopvektort) egy dokumentum prototípusnak tekinteni, beleértve egy szókészletet, amelyben minden egyes szónak megfelelő cella meghatározza a szó rangját a jellemzőben - minél magasabb az érték a szócellában, annál magasabb rangot kap a szó a tulajdonságban. A H együtthatók mátrixának egy oszlopa az eredeti dokumentumot jelöli cellaértékekkel, amelyek meghatározzák a dokumentum rangját a tulajdonsághoz. Most már rekonstruálhatjuk a dokumentumot (oszlopvektort) a bemeneti mátrixunkból sajátosságaink lineáris kombinációjaként ( W -ből származó oszlopvektorok), ahol minden jellemzőt a H mátrix oszlopvektorából származó jellemzőértékkel adott súllyal veszünk fel .

Klaszterezési tulajdonság

Az NMR-nek van egy belső tulajdonsága a klaszteresedés [13] , azaz. automatikusan csoportosítja a bemeneti adatoszlopokat . Ezt a tulajdonságot a legtöbb HMP-alkalmazás megköveteli.

Pontosabban, az eszközökkel történő közelítés a hibafüggvény minimalizálásával érhető el

feltételek mellett

Sőt, a számított mátrix a klaszterek indikátorát adja meg, pl. ha , ez a tény azt mutatja, hogy a bemenet a k - edik klaszterhez tartozik. A számított mátrix megadja a klaszterek középpontját, azaz. A k -edik oszlop határozza meg a k - edik klaszter középpontját. A központok ezen ábrázolása jelentősen javítható a konvex HMP segítségével.

Ha az ortogonalitás nincs kifejezetten megadva, az ortogonalitás elég erős, és a klaszterezési tulajdonság is érvényes. A legtöbb HMP adatbányászati ​​alkalmazás fő célja a fürtözés .

Ha a Kullback-Leibler távolságot használjuk hibafüggvényként , a HMP megegyezik a valószínűségi látens szemantikai elemzéssel , amely egy népszerű dokumentumklaszterezési módszer [14] .

Típusok

Hozzávetőleges nemnegatív mátrixbontás

Általában a W mátrix oszlopainak számát és a H mátrix sorainak számát úgy választják meg, hogy a WH szorzat V közelítésévé váljon . A V mátrix teljes dekompozíciója ezután két nemnegatív W és H mátrixból, valamint egy U maradékmátrixból áll , így V = WH + U . A maradékmátrix elemei lehetnek pozitívak és negatívak is.

Ha W és H kisebb, mint V , könnyebb megjegyezni őket, és könnyebb velük dolgozni. A másik oka annak, hogy V -t kisebb W és H mátrixokra bontjuk , hogy ha lényegesen kisebb adatmennyiséggel tudjuk megközelítőleg reprezentálni V elemeit , akkor valamilyen implicit adatszerkezetre következtethetünk.

Konvex nemnegatív mátrixbontás

A szabványos HMP-ben a szorzó ,azaz. a W mátrix tetszőleges lehet ebben a térben. A konvex HMP [15] a W mátrix oszlopait a bemeneti vektorok konvex kombinációira korlátozza . Ez jelentősen javítja a W mátrix adatábrázolásának minőségét . Sőt, a H tényező ritkábbá és ortogonálisabbá válik.

A nemnegatív rang felbontása

Abban az esetben, ha a V mátrix nemnegatív rangja megegyezik a szokásos ranggal, V = WH -t nemnegatív rangsorolásnak (NRF) nevezzük [ 16] [17] [18] . Ismeretes, hogy a V mátrix megtalálásának problémája , ha van ilyen, NP-nehéz [19] .  

Különféle költségfüggvények és rendszeresítés

Különféle nemnegatív mátrixbontások léteznek. Különböző nézetek adódnak abból, hogy különböző költségfüggvényeket használnak a V és WH közötti eltérés mérésére, valamint a W mátrix és/vagy a H mátrix lehetséges szabályosságát [1] .

Két egyszerű diszkrepanciafüggvény, amelyet Lee és Seung tanulmányozott, a szórás (vagy Frobenius-norma ) és a Kullback-Leibler távolság fogalmának kiterjesztése pozitív mátrixokra ( a Kullback-Leibler távolságot eredetileg valószínűségi eloszlásokra határozták meg). Minden eltérési függvény a saját HMP-algoritmusához vezet, amely általában az iteratív frissítési szabályok segítségével minimalizálja az eltérést.

A bontási probléma a HMP négyzetes hibafüggvényének verziójában a következőképpen fogalmazható meg: A mátrix ismeretében meg kell találni a nem negatív W és H mátrixokat, amelyek minimalizálják a függvényt.

A képek NMR egy másik típusa a teljes variáció által meghatározott normán alapul [20] .

Ha az L1 regularizációt (hasonlóan a Lasso , angol  Least Absolute Shrinkage and Selection Operátorhoz ) hozzáadjuk a HMP-hez a hiba középnégyzetével megegyező célfüggvénnyel, akkor a kapott problémát nemnegatív ritka kódolásnak nevezhetjük . a ritka kódolási problémához való hasonlóság [21] [22] , bár HMP-nek is nevezhetjük [23] .

Online NMR

Számos szabványos HMP-algoritmus együtt elemzi az összes adatot. Azok. a teljes mátrix a kezdetektől elérhető. Ez elfogadhatatlan lehet azoknál az alkalmazásoknál, ahol az adatok túl sok memóriát foglalnak el ahhoz, hogy egyszerre elférjenek benne, vagy ahol az adatok folyamként érkeznek . Ez a helyzet jellemző az ajánlórendszerek együttműködési szűrésére , ahol sok felhasználó és sok objektum lehet ajánlani, és nem lenne hatékony mindent újraszámítani, amikor egy felhasználót vagy objektumot adnak a rendszerhez. Az optimalizálás célfüggvénye ezekben az esetekben lehet vagy nem azonos a szabványos HMP-vel, de az algoritmusoknak különbözniük kell [24] [25] [26] .

Algoritmusok

W és H többféleképpen is megtalálható . Lee és Seung [12] multiplikatív frissítési szabálya népszerű volt a könnyű implementáció miatt.

Algoritmus:

Inicializálás: W és H nem negatív. Frissítse a W és H értékeket kiértékeléssel (itt az iterációs index) és Amíg W és H stabilizálódik.

Vegye figyelembe, hogy a frissítés elemenként, nem mátrixszorzással történik.


A közelmúltban egy másik algoritmust fejlesztettek ki. Egyes megközelítések az interleaved legkisebb négyzetek módszerén alapulnak , nem negatív súllyal (OINS) - egy ilyen algoritmus minden lépésében először H van rögzítve , és W -t keresünk az OIE segítségével, majd W -t fix, most pedig H -t. ugyanúgy megtalálható . A W és H megtalálására használt eljárások azonosak [27] vagy eltérőek lehetnek, mivel a HMP egyes változatai a W vagy H mátrixok egyikét szabályozzák [21] . Egyes megközelítések magukban foglalják többek között a kivetített gradiens süllyedés módszereit [27] [28] , az aktív megszorítási módszereket [5] [29] , az optimális gradiens módszert [30] és a blokk-privot módszert [31] [32] .

A jelenleg létező algoritmusok szuboptimálisak, mivel garantálják, hogy a célfüggvénynek csak a lokális minimumát találjuk meg, nem pedig a globális minimumát. Bizonyított optimális algoritmusok valószínűleg nem fognak megjelenni a közeljövőben, mivel a probléma általánosítja a k-közép módszert, amely köztudottan NP-teljes [13] . Azonban, mint sok más adatelemzési probléma esetében, itt is hasznos a lokális minimum ismerete.

Soros NMR

A HMR komponensek ( W és H ) szekvenciális felépítését eredetileg a HMR és a főkomponens módszer (PCA) összekapcsolására használták a csillagászatban [33] . A PCA komponensek hozzájárulását sajátértékeik nagysága szerint rangsorolják. Egy NMP esetében az összetevői empirikusan rangsorolhatók, ha egymás után (sorosan) épülnek fel, pl. megépítjük a -edik komponenst az első komponensekkel.

Az egymást követő NMR komponensek hozzájárulását a Karhunen-Loeve tétel segítségével, sajátérték diagram segítségével lehet összehasonlítani . A PCA-ban a komponensek számának tipikus megválasztása a „térd” ponton alapul, ekkor a lapos régió megléte azt jelzi, hogy a PCA nem fogyaszt hatékonyan adatot, és ha váratlan csökkenés következik be, az véletlenszerű zajt jelez, ill. túlillesztési módba kerülni [34] [35] . A szekvenciális NMR esetében a sajátérték diagramot a relatív reziduális variancia görbével közelítjük, ahol a görbe folyamatosan csökken, és a PCA-nál nagyobb értékhez konvergál [4] , ami a soros NMR kevésbé túlillesztését jelzi.

Pontos NMR

A HMP-változatokra vonatkozó pontos megoldások ellenőrizhetők (polinomiális időben), ha az V mátrixra vonatkozó további megszorítások teljesülnek . Campbell és Poole 1981-ben adott egy polinomiális idejű algoritmust a nemnegatív rangfelbontás megoldására, ha a V mátrix a mátrix rangjával megegyező rangú monomiális részmátrixot tartalmaz [36] . Kalofoljas és Gallopoulus (2012) [37] megoldotta a probléma szimmetrikus analógját, ahol V szimmetrikus és egy r rangú diagonális főalmátrixot tartalmaz. Algoritmusuk időben fut a sűrű esetben. Arora és kutatók egy csoportja egy polinomiális idejű algoritmust javasolt a pontos HMP-hez, amely akkor működik, ha az egyik W tényező teljesíti az elválaszthatósági feltételt [38] .

Kapcsolat más technikákkal

Az Exploring Parts of Objects by Non-Negative Matrix Decompositions című cikkében Li és Seung [39] az NMR-t főként rész-alapú képbontáshoz javasolta. A cikk összehasonlítja a HMP-t a vektorkvantálással és a főkomponens -analízissel , és megmutatja, hogy bár ez a három technika felírható dekompozícióként, eltérő megszorításokat alkalmaznak, és ezért eltérő eredményeket adnak.

Később kiderült, hogy az NMR bizonyos típusai egy általánosabb valószínűségi modell, az úgynevezett "multinomiális PCA" [40] példái . Ha az NMR-t a Kullback-Leibler távolság minimalizálásával kapjuk , akkor ez valójában egy másik multinomiális PCA, valószínűségi látens szemantikai analízis [41] , amelyet maximális valószínűség-becsléssel hangolunk . Ezt a módszert általában szöveges adatok elemzésére és klaszterezésére használják, és a látens osztálymodellhez is társul .

A legkisebb négyzetek módszerének célfüggvényével rendelkező HMR a k-közép módszer gyengített formájával ekvivalens - a W mátrixtényező a klasztercentroidokat, a H pedig a klasztertagsági mutatókat tartalmazza [13] [42] . Ez elméleti igazolást ad a HMP adatfürtözéshez való használatához. A k-átlagok azonban nem biztosítanak nem-negativitást a centroidokon, így a legközelebbi analógia valójában a „félig HMP” [15] .

Az NMR egy kétszintű orientált grafikus modellnek tekinthető, amely egy szinten megfigyelt valószínűségi változókat és egy rejtett valószínűségi változót tartalmaz [43] .

Az NMR kiterjeszthető mátrixokról tetszőleges sorrendű tenzorokra [44] [45] [46] . Ez a kiterjesztés például a PARAFAC modell nem negatív analógjának tekinthető .

A HMP további kiterjesztései közé tartozik a több mátrix és tenzor együttes lebontása, ahol néhány tényező azonos. Az ilyen modellek hasznosak az érzékelőpárosításhoz és a kapcsolódási tanuláshoz [47] .

Az NMP a nem-negatív másodfokú programozás (NQP) egy példánya, akárcsak a támogatási vektorgép (SVM). Az SVM és az NMR azonban szorosabban kapcsolódik egymáshoz, mint az NCL, ami lehetővé teszi a két módszer bármelyikének megoldására kifejlesztett algoritmusok közvetlen alkalmazását mindkét területen [48] .

Egyediség

A dekompozíció nem egyedi - egy mátrix és annak inverze felhasználható két dekompozíciós mátrix átalakítására például [49] ,

Ha két új mátrix és nem negatív , akkor egy másik dekompozíciós paraméterezést alkotnak.

Nem negativitás következik, ha legalább B egy nemnegatív monomiális mátrix . Ebben az egyszerű esetben csak méretezésnek és átrendezésnek felel meg .

A HMP kétértelműsége feletti további kontrollt a mátrixok teljességének korlátozásával lehet elérni [50] .

Alkalmazások

Csillagászat

A csillagászatban az NMR ígéretes módszer a méretcsökkentésre abban az értelemben, hogy az asztrofizikai jelek nem negatívak. Az NMR-t spektroszkópiai megfigyelésekre [3] és közvetlen megfigyelésekre [4] használják csillagászati ​​objektumok általános tulajdonságainak tanulmányozására és a csillagászati ​​megfigyelések utófeldolgozására. Blanton és Rose (2007) [3] kutatóinak előrehaladása a spektroszkópiai megfigyelések terén a csillagászati ​​megfigyelések bizonytalanságának figyelembevételével függ össze, amit később Zoo (2016) [33] javított , aki szintén figyelembe vette az adatok hiányát, és párhuzamosan alkalmazta. számítástechnika . Módszereiket ezután Ren és munkatársai (2018) [4] adaptálták a közvetlen látómezőre, mint az egyik módszerre az exobolygók kimutatására , különösen a csillagkörüli korongok közvetlen megfigyelésére .

Ren és munkatársai (2018) [4] az NMR komponensek szekvenciális (azaz egymás utáni) felépítése esetén tudták kimutatni az NMR komponensek stabilitását, ami biztosítja az NMR modellezési folyamat linearitását. A linearitási tulajdonságot arra használták, hogy elválasztsák a csillagok fényét az exobolygókról és a csillagkörüli korongokról származó szórt fénytől .

Közvetlen megfigyelés során különféle statisztikai módszereket adaptáltak a halvány exobolygók és a körkörös korongok megkülönböztetésére a környező erős fénytől, amelynek tipikus kontrasztja 10⁵-10¹⁰ [51] [52] [34] , de a fény elkülönül az exobolygóktól. vagy a körkörös lemezek általában túlillesztést szenvednek, ezért a valódi áramlás kimutatásához utólagos modellezést kell alkalmazni [53] [35] . A szimulációk jelenleg pontforrásokra [35] vannak optimalizálva, de nem szabálytalan alakú struktúrákra, mint például a körkörös korongokra. Ebben a helyzetben az NMR egy kiváló módszer, amely kevésbé szenved túlillesztéstől az NMR szimulációs együtthatók nem-negativitása és ritkasága értelmében, így a szimuláció több skálázási tényezővel [4] is elvégezhető a számításigényes adatfeldolgozás helyett a számítógépen. kapott modelleket.

Szövegbányászat

A HMP használható szövegbányászathoz . Ez a folyamat különböző objektumok súlyozásával (általában a szavak előfordulási gyakoriságára vonatkozó súlyozott információkkal) egy kifejezés-dokumentum mátrixot hoz létre egy dokumentumkészletből. A mátrix objektum-attribútum és attribútum-dokumentum mátrixokra bomlik . A jellemzők a dokumentumkörnyezetből származnak, és a jellemző-dokumentum mátrix a kapcsolódó dokumentumok adatfürtjeit írja le.

Az egyik alkalmazás hierarchikus HMP-t használ a PubMed tudományos absztrakcióinak egy kis részében [54] . A kutatók egy másik csoportja az Enron [55] e-mail készletét (65033 üzenet és 91133 objektum) 50 klaszterbe csoportosította [56] . A HMP-t hivatkozási adatokra is alkalmazzák, például az angol Wikipédia -cikkek és tudományos folyóiratok csoportosítására az angol Wikipédia tudományos hivatkozásai alapján [57] .

Arora és munkatársai polinomiális idő algoritmusokat javasoltak témamodellek tanulására HMP használatával. Az algoritmus feltételezi, hogy a témamátrix teljesíti az elválaszthatósági feltételt, ami ilyen feltételek mellett gyakran előfordul [38] .

Spektrális adatok elemzése

Az NMR-t a spektrális adatok elemzésére is használják. Az egyik ilyen alkalmazás a bolygóközi objektumok és törmelékek osztályozása [58] .

Méretezhető hálózati távolság előrejelzés

A HMP-t az internetes méretezhető hálózati távolság-előrejelzésben (csomag oda-vissza úti idő) használják. HMP-t használó gazdagépekkel rendelkező hálózatok esetén az összes kapcsolat távolsága ponttól pontig már csak mérések után megjósolható. Ezt a fajta módszert először az Internet Distance Estimation Service (IDES) [59] javasolta . Ezt követően teljesen decentralizált megközelítésként a Phoenix hálózati koordinátarendszert [ 60] javasolták . Jobb kiszámíthatóságot ért el a súly fogalmának bevezetésével.   

A nem álló zaj eltávolítása a beszélgetésből

A beszélgetés zajának eltávolítása régóta probléma az audiojel-feldolgozásban . Álló zaj esetén számos zajeltávolító algoritmus létezik. Például a Wiener-szűrő alkalmas az additív Gauss-zaj kezelésére . Ha azonban a zaj nem stacionárius, a klasszikus zajeltávolító algoritmusok általában gyenge teljesítményt nyújtanak, mivel a nem álló zajra vonatkozó statisztikai információkat nehéz kiértékelni. Schmidt és munkatársai [61] az NMR segítségével távolították el a nem álló zajt a beszélgetés során, ami teljesen eltér a klasszikus statisztikai megközelítésektől. A kulcsgondolat az, hogy a tiszta jel ábrázolható egy beszélgetési szókészlettel, de a nem álló zaj nem ábrázolható. Hasonlóképpen, a nem álló zaj is leírható egy zajszótárral, de a beszélgetés nem.

A HMP-vel végzett zajeltávolítás algoritmusa a következőképpen működik. Két szótárt kell offline betanítani, az egyiket a beszélgetéshez, a másikat a zajhoz. Amint zajjal járó beszélgetést kiszolgálunk, először kiszámítjuk az ablakos Fourier-transzformáció értékét . Ezután a HMP segítségével két részre osztjuk, az egyik részt egy beszélgetési szótárral, a másik részt pedig egy zajszótárral ábrázolhatjuk. A harmadik lépésben a beszélgetési szótár által képviselt részt tiszta beszélgetésként értékeljük.

Bioinformatika

Az NMR-t sikeresen alkalmazták a bioinformatikában génexpressziós és DNS - metilációs adatok klaszterezésére , valamint a klasztereket leginkább reprezentáló gének keresésére [22] [62] [63] [64] . A rákmutáció-analízis során ezt arra használják, hogy felhívják a figyelmet a sok rákban előforduló, és valószínűleg különböző okokkal járó mutációs közös mechanizmusokra [65] .

Radionuklid képalkotás

Az ezen a területen faktoranalízisként emlegetett NMR-t az 1980-as évek óta [66] alkalmazzák képszekvencia-analízisre SPECT -ben és PET -ben . Az NMR kétértelműségét ritkaságkorlátozással oldottuk meg [67] .

Jelenlegi kutatás

A nem negatív mátrixbontással kapcsolatos jelenlegi kutatások (2010 óta) többek között a következő kérdéseket tartalmazzák

  1. Algoritmikus kérdések: a faktorok globális minimumának keresése és a faktor inicializálása [68] .
  2. Méretezési problémák: hogyan bonthatjuk fel a hálózatokban lévő adatok elemzésekor felmerülő milliószor milliárdos mátrixokat. Lásd az "Elosztott nem-negatív mátrixfaktorozás (DNMF)" [69] és a "Scalable Non-negative Matrix Factoring (ScalableNMF)" [70] cikkeket .
  3. Online feldolgozás: hogyan lehet frissíteni a dekompozíciót új adatok beérkezésekor anélkül, hogy a nulláról kellene teljes számítást végezni [71] .
  4. Co-Dekompozíció: Több, egymással összefüggő mátrix felbontása többpozíciós klaszterezéshez, lásd CoNMF [72] és MultiNMF [73] .
  5. Cohen és Rothblum 1993-as problémája: Mindig van-e egy racionális mátrixnak egy minimális belső dimenziójú NMP-je, amelynek tényezői szintén racionálisak? A közelmúltban erre a kérdésre nemleges választ adtak [74] .

Lásd még

Jegyzetek

  1. 1 2 3 Dhillon, Sra, 2005 .
  2. Tandon, Sra, 2010 .
  3. 1 2 3 Blanton, Roweis, 2007 , p. 734-754.
  4. 1 2 3 4 5 6 7 Ren, Pueyo, Zhu, Duchêne, 2018 , p. 104.
  5. 1 2 Gemulla, Nijkamp, ​​​​Haas, Sismanis, 2011 , p. 69–77.
  6. Bao, 2014 .
  7. Murrell, 2011 , p. e28898.
  8. Lawton, Sylvestre, 1971 , p. 617+.
  9. Paatero és Tapper 1994 , p. 111–126.
  10. Anttila, Paatero, Tapper, Järvinen, 1995 , p. 1705-1718.
  11. 1 2 Lee, Seung, 1999 , p. 788-791.
  12. 1 2 Lee, Seung, 2001 , p. 556-562.
  13. 1 2 3 Ding, He, Simon, 2005 , p. 606-610.
  14. Ding, Li, Peng, 2008 , p. 3913-3927.
  15. 1 2 Ding, Li, Jordan, 2010 , p. 45-55.
  16. Berman, Plemmons, 1974 , p. 161–172.
  17. Berman, Plemmons, 1994 .
  18. Thomas, 1974 , p. 393–394.
  19. Vavasis, 2009 , p. 1364–1377.
  20. Zhang, Fang, Liu, Tang és mtsai, 2008 , p. 1824–183
  21. 12 Hoyer , 2002 .
  22. 1 2 Taslaman, Nilsson, 2012 , p. e46331.
  23. Hsieh, Dhillon, 2011 , p. 1064.
  24. Archivált másolat . Letöltve: 2018. október 16. Az eredetiből archiválva : 2015. szeptember 24..
  25. Fung, Li, Cheung, 2007 , p. 284–287.
  26. Guan, Tao, Luo, Yuan, 2012 , p. 1087–1099.
  27. Lin 12 , 2007 , p. 2756–2779.
  28. Lin, 2007 , p. 1589–1596
  29. Kim, Park, 2008 , p. 713-730.
  30. Guan, Tao, Luo, Yuan, 2012 , p. 2882–2898.
  31. Kim, Park, 2011 , p. 3261-3281.
  32. Kim, Ő, Park, 2013 , p. 285-319.
  33. 1 2 Zhu, Guangtun B. (2016-12-19), Nemnegatív mátrixfaktorizáció (NMF) heteroszedasztikus bizonytalanságokkal és hiányzó adatokkal, arΧiv : 1612.06037 [astro-ph.IM]. 
  34. 1 2 Summer, Pueyo, Larkin, 2012 , p. L28.
  35. 1 2 3 Pueyo, 2016 , p. 117.
  36. Campbell, Poole, 1981 , p. 175–182.
  37. Kalofolias, Gallopoulos, 2012 , p. 421–435.
  38. 1 2 Arora, Ge, Halpern, Mimno et al., 2013 .
  39. Lee, Seung, 1999 , p. 788–791.
  40. Buntine, 2002 , p. 23–34.
  41. Gaussier és Goutte 2005 , p. 601–602.
  42. Zass, Shashua, 2005 .
  43. Welling, Rosen-zvi, Hinton, 2004 .
  44. Paatero, 1999 , p. 854-888.
  45. Welling, Weber, 2001 , p. 1255-1261.
  46. Kim, Park, 2012 , p. 311-326.
  47. Yilmaz, Cemgil, Simsekli, 2011 .
  48. Potluru, Plis, Morup, Calhoun, Lane, 2009 , p. 1218–1229.
  49. Xu, Liu, Gong, 2003 , p. 267-273.
  50. Eggert, Körner, 2004 , p. 2529-2533.
  51. Lafrenière, Maroid, Doyon, Barman, 2009 .
  52. Amara, Quanz, 2012 , p. 948.
  53. Wahhaj, Cieza, Mawet, Yang et al., 2015 , p. A24.
  54. Nielsen, Balslev, Hansen, 2005 , p. 520–522.
  55. Cohen, 2005 .
  56. Berry és Browne, 2005 , p. 249-264.
  57. Nielsen, 2008 .
  58. Berry, Browne, Langville, Pauca, Plemmons, 2007 , p. 155-173.
  59. Mao, Saul, Smith, 2006 , p. 2273-2284.
  60. Chen, Wang, Shi, 2011 , p. 334–347.
  61. Schmidt, Larsen, Hsiao, 2007 , p. 431–436.
  62. Devarajan, 2008 , p. e1000029.
  63. Kim, Park, 2007 , p. 1495-1502.
  64. Schwalbe, 2013 , p. 359-371.
  65. Alexandrov, Nik-Zainal, Wedge, Campbell, Stratton, 2013 , p. 246–259.
  66. Di Paola, Bazin, Aubry, Aurengo et al., 1982 , p. 1310–21.
  67. Sitek, Gullberg, Huesman, 2002 , p. 216–25.
  68. Boutsidis, Gallopoulos, 2008 , p. 1350–1362
  69. Liu, Yang, Fan, ő, Wang, 2010 .
  70. Yin, Gao, Zhang, 2014 .
  71. Wang, Vipperla, Evans, Zheng, 2013 , p. 44–56.
  72. Ő, Kan, Xie, Chen, 2014 .
  73. Liu, Wang, Gao, Han, 2013 , p. 252–260.
  74. Csisztikov, Dmitrij; Kiefer, Stefan; Marusic, Ines; Shirmohammadi, Mahsa & Worrell, James (2016-05-22), A nemnegatív mátrixfaktorizálás irracionalitást igényel, arΧiv : 1605.06848 [cs.CC]. 

Irodalom

További olvasnivalók