Mátrix spektrális lebontása

A mátrix spektrális vagy sajátvektorokon alapuló felbontása egy négyzetes mátrix három mátrix szorzata , ahol az a mátrix, amelynek oszlopai a mátrix sajátvektorai , egy átlós mátrix a megfelelő sajátértékekkel a főátlón a mátrix mátrix inverze .

Csak azok a mátrixok ábrázolhatók ebben az alakban, amelyek teljes sajátvektor-készlettel, azaz n lineárisan független sajátvektorból állnak, ahol n a mátrix sorrendje .

A spektrális dekompozíció felhasználható a mátrix sajátértékeinek és sajátvektorainak megkeresésére, lineáris egyenletrendszerek megoldására, mátrix invertálására, mátrix determinánsának megtalálására és mátrixok analitikai függvényeinek kiszámítására.

A sajátvektorok és a mátrix sajátértékek elmélete

Egy nem nulla N dimenziós vektor egy négyzetmátrix sajátvektora, ha kielégíti a lineáris egyenletet

,

ahol a mátrix sajátértékének nevezett és a sajátvektornak megfelelő skalár . Vagyis a sajátvektorok azok a vektorok, amelyeket a lineáris transzformáció csak meghosszabbít vagy rövidít, a sajátérték pedig a hosszváltozási tényező. A fenti egyenletet sajátérték-egyenletnek vagy sajátérték-problémának nevezzük .

A fenti egyenlet egy homogén lineáris egyenletrendszernek tekinthető

,

ahol egy skaláris paraméter és egy homogén lineáris egyenletrendszer nemtriviális megoldása. Egy homogén lineáris egyenletrendszer nem triviális megoldásai csak akkor léteznek, ha a rendszer mátrixának determinánsa nulla, azaz.

A polinomot a mátrix karakterisztikus polinomjának, a fenti egyenletet pedig karakterisztikus egyenletnek nevezzük . A karakterisztikus egyenlet a változó N- edrendű polinomegyenlete . Ennek az egyenletnek különböző gyökerei vannak, ahol . A megoldások, vagyis a sajátértékek halmazát a mátrix spektrumának nevezzük [1] [2] [3] .

Tényezőzzük a karakterisztikus polinomot :

Az n i természetes számot a sajátérték algebrai többszörösének nevezzük . Ha a skalármező algebrailag zárt , akkor az algebrai multiplicitások összege N :

Minden sajátértékhez külön egyenletet kell megoldani a sajátvektorokra:

Minden ilyen egyenletre létezik lineárisan független megoldás. Az m i megoldások lineáris kombinációi a sajátértékhez társított sajátvektorok . Az m i egész számot az érték geometriai multiplicitásának nevezzük . Előfordulhat, hogy az algebrai multiplicitás és a geometriai multiplicitás nem esik egybe, de mindig . A lineárisan független sajátvektorok teljes száma a geometriai multiplicitások összegzésével számítható ki

A sajátvektorok sajátértékekkel indexelhetők egy kettős index segítségével, amely az i - edik sajátérték j -edik sajátvektorát jelenti . Az egyszerűbb indexelés egyetlen indexet használ, ahol .

Mátrixbontás sajátvektorok segítségével

Legyen négyzetes mátrix n lineárisan független q i ( ) sajátvektorral . Utána lehet bomlani

,

ahol egy négyzetes mátrix, amelynek i -edik oszlopa a mátrix sajátvektora , és egy átlós mátrix , amelynek átlós elemei a megfelelő sajátértékek, . Figyeljük meg, hogy csak az átlósítható mátrixok bonthatók így fel. Például egy eltolási mátrix nem diagonalizálható.

Általában a q i sajátvektorok normalizáltak , de ez nem szükséges, n sajátvektorból álló v i nem normalizált halmaz is használható mátrixoszlopként .

A dekompozíciót a sajátvektorok alapvető tulajdonságából kaphatjuk meg:

Példa

Valódi mátrix

nem szinguláris mátrixszal való szorzással átlós alakra redukálható

Akkor

valami valódi átlós mátrixhoz .

A bal oldali egyenlőség mindkét oldalát megszorozva -vel, a következőt kapjuk:

A fenti egyenlőség két egyenletrendszerre bontható :

Az x és y sajátértékek kivétele :

Kapunk

amely két vektoregyenletet ad:

Ez utóbbi rendszer egyetlen vektoregyenlettel ábrázolható, amely két sajátérték megoldását tartalmazza:

,

ahol a két x és y sajátértéket jelöli , valamint a és a vektorokat .

Bal oldalra lépve és kiszedve kapunk

Mivel a mátrix nem degenerált, fontos, hogy a vektor ne legyen nulla. Ezért,

Akkor

megadja nekünk a mátrix sajátérték-megoldásait, mint vagy , és a mátrixbontásból kapott diagonális mátrix ekkor .

Ha a megoldásokat visszahelyettesítjük a fenti egyenletrendszerbe, azt kapjuk

Az egyenleteket megoldva azt kapjuk

Ekkor a mátrix faktorizálásához szükséges mátrix az

Azaz:

Mátrix inverzió sajátvektor kiterjesztéssel

Legyen a mátrixnak spektrális dekompozíciója, és a mátrix egyik sajátértéke sem egyenlő nullával. Ebben az esetben a mátrix nem szinguláris , és az inverz mátrixát a képlet határozza meg

Ha a mátrix szimmetrikus mátrix , akkor a mátrix garantáltan ortogonális , azaz . És mivel a mátrix átlós , akkor az inverze könnyen kiszámítható:

Gyakorlati érték [4]

Ha egy valós adatokkal mért mátrixon sajátvektor-bontást alkalmazunk , akkor az inverz mátrix rosszabb lehet , ha az összes sajátértéket változatlan formában használjuk. A lényeg az, hogy amikor a sajátértékek viszonylag kicsivé válnak, az inverzeik hozzájárulása az inverz mátrixhoz nagy. Ezek a nullához közeli értékek vagy a mérőrendszer "zaj" túlzottan befolyásolják és zavarhatják az inverziós megoldást.

Két enyhítési lehetőséget javasoltak: a kis vagy nulla sajátértékek elvetését, és a legkisebb megbízható érték másolását kisebbekre.

Az első mérséklési lehetőség hasonló az eredeti mátrix ritkításához, amelyben eltávolítják a jelentéktelennek tekintett elemeket. Ha azonban a megoldási folyamatról kiderül, hogy közel van a zajszinthez, a visszaállítás eltávolíthatja a kívánt megoldást befolyásoló összetevőket.

A második mérséklési lehetőség a sajátértéket másolja, így a kisebb értékek kevésbé befolyásolják az inverzió eredményét, de mégis hozzájárulnak ahhoz, hogy a zajszinthez közeli megoldások is megtalálhatók legyenek.

Megbízható sajátérték található, ha feltételezzük, hogy a sajátértékek rendkívül közel állnak egymáshoz, és az alacsony érték jól reprezentálja a mérési zajt (amely a legtöbb rendszernél alacsonynak tekinthető).

Ha a sajátértékek nagyság szerint vannak rendezve, megbízható sajátértéket találhatunk a rendezett sajátértékek laplaciánusának minimalizálásával [5] :

,

ahol a sajátértékek s - vel vannak jelölve a rendezés jelölésére (angolból rendezve). A minimum helye a legkisebb megbízható sajátérték. Mérőrendszerekben ennek a megbízható sajátértéknek a négyzetgyöke a rendszer többi összetevőjéhez viszonyított átlagos zaj.

Funkcionális kalkulus

Legyen a négyzetmátrixnak egy dekompozíciója . Ezután a mátrix természetes hatványra emelését egy egyszerű képlettel számítjuk ki:

itt a termékek törlésre kerülnek a köztes kifejezésben . A természetes hatványra emelés művelete lehetővé teszi különböző függvények definiálását mátrixok felett, amelyeket hatványsorok formájában fejezünk ki. Legyen a függvénynek egy hatványsoros kiterjesztése

A mátrix sajátértékek szerinti bontása lehetővé teszi a hatványsor gyors kiszámítását a mátrixból. Legyen f  ( x ) adott hatványsorral

A mátrix hatványának fenti képletével összhangban a mátrix hatványsorai a képlet segítségével számíthatók ki

,

ahol a diagonális mátrix függvénye , amely nagyon könnyen kiszámítható:

Ebben az esetben a mátrix átlón kívüli elemei nullával egyenlőek. Vagyis egy átlós mátrix is. Ennek eredményeként a függvény mátrixból történő kiszámítása lecsökkent egy függvény egyszerű kiszámítására az egyes sajátértékekből.

Hasonló technika általánosabban működik a holomorf funkcionális kalkulusban is, a képlet felhasználásával

negatív kitevőt tartalmazó mátrixokból hatványsorokat lehet számítani. Itt is azt használják, hogy .

Példák

Egy mátrix négyzetgyöke:

Tegyük négyzet alakúra, és győződjünk meg a helyességéről:

A mátrix kitevőjét hasonló módon határozzuk meg :

Speciális mátrixok bontása

Normál mátrixok

Egy összetett négyzetmátrix akkor és csak akkor normális (ami azt jelenti, hogy hol van a Hermitian konjugátum ) akkor és csak akkor, ha felbontható

ahol unitárius (ami azt jelenti, hogy ) , és egy átlós mátrix [6] . A mátrix oszlopai ortonormális bázist alkotnak , és a mátrix sajátvektorai a megfelelő sajátértékekkel .

Ha a mátrixok osztálya hermitikus mátrixokra korlátozódik ( ), akkor csak valós értékei vannak. Ha a mátrixok osztálya unitárius mátrixokra korlátozódik, akkor minden érték a komplex egységkörön, azaz .

Valós szimmetrikus mátrixok

Bármely valós szimmetrikus mátrix esetében a sajátértékek valósak, és a sajátvektorok megválaszthatók valósnak és ortonormálisnak . Így egy valós szimmetrikus mátrix bontható fel

ahol egy ortogonális mátrix, amelynek oszlopai a mátrix sajátvektorai , és egy átlós mátrix, amelynek az átlón lévő értékei megegyeznek a mátrix sajátértékeivel [7] .

Hasznos tények

Hasznos tények a sajátértékekről

  • A sajátértékek szorzata egyenlő a mátrix determinánsával Vegyük észre, hogy minden sajátértéket n i hatványra emelünk , ami egy algebrai multiplicitás.
  • A sajátértékek összege megegyezik a mátrix nyomvonalával Megjegyezzük, hogy minden sajátértéket megszorozunk n i -vel , ez egy algebrai multiplicitással.
  • Ha a mátrixnak vannak sajátértékei, és invertálható , akkor a mátrix sajátértékei egyszerűen .
  • Ha a mátrixnak vannak sajátértékei , akkor a mátrix sajátértékei egyszerűen egyenlők bármely f holomorf függvényre .

Hasznos tények a sajátvektorokról

  • Ha a mátrix hermitikus és teljes rangú, akkor a sajátvektor bázis választható úgy, hogy kölcsönösen ortogonális legyen . A sajátértékek valódiak.
  • A mátrix sajátvektorai megegyeznek a mátrix sajátvektoraival .
  • A sajátvektorok egy állandó tényezőig vannak definiálva. Vagyis ha , akkor is egy sajátvektor bármely c ≠ 0 skalárhoz . Konkrétan, és (bármelyik esetén ) szintén sajátvektorok.
  • Degenerált sajátértékek esetén (egy sajátérték többször is megjelenik) a sajátvektorok további forgási szabadságfokkal rendelkeznek, azaz az azonos sajátértékű sajátvektorok bármely lineáris (ortonormális) kombinációja maga is sajátvektor.

Hasznos tények a sajátvektor-bontásról

  • Egy mátrix akkor és csak akkor bontható fel sajátvektorok segítségével, ha a lineárisan független sajátvektorok száma megegyezik a sajátvektor dimenziójával:
  • Ha nincs több gyöke, azaz ha , akkor felbontható.
  • A "mátrix felbontható" állításból nem következik , hogy van inverze.
  • A "mátrixnak van inverze" állításból nem következik , hogy sajátvektorok segítségével felbontható. Az ellenpélda a mátrix , amely egy invertálható hibamátrix [ .

Hasznos tények az inverz mátrixról

  • A mátrix akkor és csak akkor invertálható
  • Ha és , az inverz mátrixot az egyenlőség adja

Numerikus számítások

Sajátértékek numerikus számítása

Tegyük fel, hogy ki kell számítani egy adott mátrix sajátértékeit. Ha a mátrix méretei kicsik, a sajátértékek szimbolikusan kiszámíthatók a karakterisztikus polinom segítségével . Ez azonban gyakran nem lehetséges nagy mátrixok esetén, ilyenkor numerikus módszereket használnak .

A gyakorlatban a nagy mátrixok sajátértékeit nem a karakterisztikus polinom segítségével számítják ki. Egy polinom számítása önmagában idő- és időigényessé válik, a nagyfokú polinom pontos (szimbolikus) gyökét pedig nehéz kiszámítani és kifejezni – ez következik Ábel gyökökben lévő egyenletek megoldhatatlanságáról szóló tételéből, hogy a nagyfokú (5 és magasabb) polinomok gyökei általában nem lehetnek, az n- edik fokú gyökökből származó kifejezésekként jelennek meg. Emiatt a sajátvektorok és sajátértékek megtalálására szolgáló általános algoritmusok iteratív módon működnek .

Vannak iteratív numerikus algoritmusok a polinomok gyökeinek közelítésére, mint például a Newton-módszer , de általában nem praktikus karakterisztikus polinomot létrehozni, majd ezeket a módszereket alkalmazni. Ennek egyik oka az, hogy a karakterisztikus polinom együtthatóiban előforduló kis kerekítési hibák nagy hibákhoz vezethetnek a sajátértékekben és a sajátvektorokban – a gyökök az együtthatók rendkívül rosszul kondicionált függvényei [8] .

Egy egyszerű és pontos iteratív módszer a hatványmódszer kiválasztunk egy véletlen vektort , és kiszámítjuk az egységvektorok sorozatát.

Ez a sorozat szinte mindig a legnagyobb sajátértéknek megfelelő sajátvektorhoz konvergál, feltéve, hogy az ennek a sajátvektornak megfelelő vektor a sajátvektorok alapján nullától eltérő komponenst tartalmaz (és feltéve, hogy csak egy legnagyobb sajátérték van). Ez az egyszerű algoritmus hasznos néhány gyakorlati alkalmazásban. A Google például ennek segítségével számítja ki a dokumentumok link -rangsorát a keresőmotorjában [9] . Ezenkívül a hatványmódszer sok más összetett algoritmus kiindulópontja. Például, ha nem csak a sorozat utolsó vektorát tárolja, hanem a sorozat összes vektorának lineáris terjedelmét nézi , akkor jobb (gyorsabb konvergáló) közelítést kaphat a sajátvektorról, és ez az ötlet Arnoldi alapja. iteráció [8] . A szintén fontos QR-algoritmus szintén egy kissé módosított teljesítménymódszeren alapul [8] .

Sajátvektorok numerikus számítása

A sajátértékek kiszámítása után a sajátvektorok kiszámíthatók az egyenlet megoldásával

Gauss-eliminációval vagy bármely más mátrixegyenlet megoldási módszerrel .

A nagy mátrixok sajátértékeinek megtalálásának gyakorlati módszereiben azonban a sajátvektorokat általában más módon számítják ki a sajátérték-számítás melléktermékeként. A teljesítménymódszerben például a sajátvektort általában a sajátérték kiszámítása előtt számítják ki (amit általában a Rayleigh-relációnak megfelelően számítanak ki a sajátvektorra vonatkozóan) [8] . A Hermiti mátrix (vagy bármely normál mátrix ) QR-algoritmusában az ortonormális sajátvektorokat mátrixszorzatként kapjuk meg az algoritmus lépéseiből [8] . (Általánosabb mátrixok esetén a QR-algoritmus először egy Schur-felbontást hajt végre, amelyből a sajátvektorok visszahelyettesítéssel nyerhetők [10] ) Hermitiánus mátrixok esetén az oszd meg és győzz sajátérték-kereső algoritmus hatékonyabb, mint a QR-algoritmus, ha sajátvektorokra és sajátértékekre is szükség van [8] .

További témák

Általánosított sajátterek

Emlékezzünk vissza, hogy egy sajátérték geometriai multiplicitása leírható a kapcsolódó sajáttér, a mátrix magjának dimenziójaként . Az algebrai multiplicitás dimenzióként is felfogható - ez a kapcsolódó általánosított sajáttér dimenziója (1. értelemben), amely a mátrix magja bármely kellően nagy k esetén . Vagyis ez az általánosított sajátvektorok tere (első értelemben), ahol általánosított sajátvektor bármely olyan vektor, amely végül 0 lesz, ha elegendő alkalommal alkalmazzuk. Bármely sajátvektor egy általánosított sajátvektor, ezért bármely sajáttér benne van a hozzá tartozó általánosított sajáttérben. Ez egyszerű bizonyítékot ad arra, hogy a geometriai multiplicitás soha nem haladja meg az algebrai sokszínűséget.

Ez a használat nem tévesztendő össze az alábbiakban ismertetett általánosított sajátérték-problémával .

Konjugált sajátvektor

A konjugált sajátvektor egy olyan vektor, amely lineáris transzformáció után bemegy (a skalárral való szorzásig) a konjugátumába. A skalárt ezután a lineáris transzformáció konjugált sajátértékének nevezzük. A konjugált sajátvektorok és sajátértékek lényegében ugyanazt az információt képviselik, mint a közönséges sajátvektorok és sajátértékek, de más koordinátarendszerek használatakor keletkeznek. A megfelelő egyenlőség lesz

Például a koherens elektromágneses szórás elméletében a lineáris transzformáció a szóró tárgy által végrehajtott cselekvést, a sajátvektorok pedig az elektromágneses hullám polarizációs állapotait reprezentálják. Az optikában a koordinátarendszert a hullám szempontjából határozzák meg, Forward Scattering Alignment néven ( eng. Forward Scattering Alignment , FSA), és közönséges sajátérték-egyenleteket generál, míg a radarban a koordinátarendszert a A radar oldalán visszaszórási illesztésként ( Eng. Back Scattering Alignment , BSA) ismert, és egyenleteket generál a konjugált sajátvektorokhoz.   

A sajátértékek megtalálásának általános problémája

A sajátértékek megtalálásának általános problémája (második értelemben) egy olyan vektor megtalálásának problémája, amely kielégíti az egyenlőséget .

hol és vannak mátrixok. Ha ezt az egyenlőséget néhány esetén kielégíti , akkor a mátrixok általánosított sajátvektorának és (második értelemben), és a mátrixok általánosított sajátértékének nevezzük , és (második értelemben), az általánosított sajátvektornak megfelelően . A lehetséges értékeknek ki kell elégíteniük a következő egyenlőséget

Ha lehetséges olyan lineárisan független vektorokat találni , hogy bármely , esetén mátrixokat definiáljunk és a következőképpen

Ekkor a következő egyenlőség áll fenn

Bizonyíték

És mivel reverzibilis, ezzel az inverzével megszorozzuk, és megkapjuk a kívánt eredményt.

A alakú mátrixok halmazát , ahol egy komplex szám, kötegnek nevezzük . A mátrixok kötege kifejezés egy mátrixpárra is utalhat [11] .

Ha a mátrix invertálható, akkor az eredeti probléma átírható

ami a standard sajátérték probléma. A legtöbb esetben azonban nem kívánatos ennek az inverziónak a végrehajtása, hanem az általánosított sajátérték probléma megoldása. Ez különösen fontos, ha a és mátrixok hermitikusak , mivel ebben az esetben általában nem hermitikus, és a megoldás fontos tulajdonságai már nem jelennek meg.

Ha mind a és a mátrixok szimmetrikusak és hermitikusak, és pozitív definitív is , akkor a sajátértékek valósak, a és a különböző sajátértékekkel rendelkező sajátvektorok pedig -ortogonálisak ( ) [12] . Ebben az esetben a sajátvektorokat úgy választhatjuk meg, hogy a fent definiált mátrix megfeleljen a feltételeknek

vagy ,

és van egy alapja az általánosított sajátvektoroknak (ez nem hibamátrix ) [11] . Ezt az esetet néha Hermitian-definiált kévének nevezik [11] .

Lásd még

Jegyzetek

  1. Golub, Van Loan, 1996 , p. 310.
  2. Kreyszig, 1972 , p. 273.
  3. Nering, 1970 , p. 270.
  4. Hayde, Twede, 2002 , p. 355.
  5. Hayde, Twede, 2002 , p. 299.
  6. Horn és Johnson, 1985 , p. 133 2.5.3. tétel.
  7. Horn és Johnson, 1985 , p. 136 2.5.3. tétel Következmény 2.5.11.
  8. 1 2 3 4 5 6 Trefethen, Bau, 1997 .
  9. Ipsen, Wills, 2005 .
  10. Quarteroni, Sacco, Saleri, 2000 , p. tizenöt.
  11. 1 2 3 Bai, Demmel, 2000 .
  12. Parlett, 1998 , p. 345.

Irodalom

  • Hayde AF, Twede DR Megfigyelések a sajátértékek, a műszerzaj és a detektálási teljesítmény közötti összefüggésről // Képalkotó spektrometria VIII. / Sylvia S. Shen. - 2002. - T. 4816 . - doi : 10.1117/12.453777 . - .
  • Twede DR, Hayden AF Kovarianciamátrix inverzió kiterjesztési módszerének finomítása és általánosítása regularizációval // Imaging Spectrometry IX .. - 2004. - T. 5159 . - doi : 10.1117/12.506993 . - .
  • Lloyd N. Trefethen, David Bau. Numerikus lineáris algebra. - "SIAM, 1997. - ISBN 978-0-89871-361-9 .
  • Alfio Quarteroni, Riccardo Sacco, Fausto Saleri. szakasz 5.8.2 // Numerikus matematika . - "Springer, 2000. - ISBN 978-0-387-98959-4 .
  • Beresford N. Parlett. A szimmetrikus sajátérték probléma . - Reprint.. - Philadelphia: "Society for Industrial and Applied Mathematics, 1998. - ISBN 978-0-89871-402-9 . - doi : 10,1137/1,9781611971163 .
    • Fordította: B. Parlett. Szimmetrikus sajátérték probléma. - Moszkva: Mir, 1983.
  • Ilse Ipsen, Rebecca M. Wills. A Google PageRank elemzése és számítása // 7th IMACS International Symposium on Iterative Methods in Scientific Computing, Fields Institute, Toronto, Kanada, 2005. május 5–8 . – 2005.
  • Általánosított hermitiánus sajátérték-problémák // Sablonok algebrai sajátérték-problémák megoldásához: Gyakorlati útmutató / Z. Bai, J. Demmel, J. Dongarra, A. Ruhe, H. Van Der Vorst. - Philadelphia: SIAM, 2000. - ISBN 978-0-89871-471-5 .
  • Joel N. Franklin. Mátrix elmélet . Dover Publications. — ISBN 978-0-486-41179-8 .
  • Gene H. Golub, Charles F. Van Loan. Mátrix számítások. — 3. - Baltimore: Johns Hopkins University Press , 1996. - ISBN 978-0-8018-5414-9 .
    • Fordította : J. Golub, C. Van Lone. Mátrix számítások. - Moszkva: Mir, 1999. - ISBN 5-03-002406-9 .
  • Roger A. Horn, Charles R. Johnson. mátrixelemzés. - Cambridge University Press, 1985. - ISBN 978-0-521-38632-6 .
    • Fordítás Horn R., Johnson C. Mátrixelemzés. - "Mir", 1989. - ISBN 978-5-458-26504-1 (YOYO Media).
  • Roger A. Horn, Charles R. Johnson. A mátrixelemzés témái . - Cambridge University Press, 1991. - ISBN 978-0-521-46713-1 .
  • Erwin Kreyszig. Haladó mérnöki matematika . — 3. - New York: Wiley , 1972. - ISBN 978-0-471-50728-4 .
  • Evar D. Nering. Lineáris algebra és mátrixelmélet. — 2. – New York: Wiley , 1970.
  • Strang G. Bevezetés a lineáris algebrába. — 3. - Wellesley-Cambridge Press, 1998. - ISBN 978-0-9614088-5-5 .

Linkek