A mátrix spektrális vagy sajátvektorokon alapuló felbontása egy négyzetes mátrix három mátrix szorzata , ahol az a mátrix, amelynek oszlopai a mátrix sajátvektorai , egy átlós mátrix a megfelelő sajátértékekkel a főátlón a mátrix mátrix inverze .
Csak azok a mátrixok ábrázolhatók ebben az alakban, amelyek teljes sajátvektor-készlettel, azaz n lineárisan független sajátvektorból állnak, ahol n a mátrix sorrendje .
A spektrális dekompozíció felhasználható a mátrix sajátértékeinek és sajátvektorainak megkeresésére, lineáris egyenletrendszerek megoldására, mátrix invertálására, mátrix determinánsának megtalálására és mátrixok analitikai függvényeinek kiszámítására.
Egy nem nulla N dimenziós vektor egy négyzetmátrix sajátvektora, ha kielégíti a lineáris egyenletet
,ahol a mátrix sajátértékének nevezett és a sajátvektornak megfelelő skalár . Vagyis a sajátvektorok azok a vektorok, amelyeket a lineáris transzformáció csak meghosszabbít vagy rövidít, a sajátérték pedig a hosszváltozási tényező. A fenti egyenletet sajátérték-egyenletnek vagy sajátérték-problémának nevezzük .
A fenti egyenlet egy homogén lineáris egyenletrendszernek tekinthető
,ahol egy skaláris paraméter és egy homogén lineáris egyenletrendszer nemtriviális megoldása. Egy homogén lineáris egyenletrendszer nem triviális megoldásai csak akkor léteznek, ha a rendszer mátrixának determinánsa nulla, azaz.
A polinomot a mátrix karakterisztikus polinomjának, a fenti egyenletet pedig karakterisztikus egyenletnek nevezzük . A karakterisztikus egyenlet a változó N- edrendű polinomegyenlete . Ennek az egyenletnek különböző gyökerei vannak, ahol . A megoldások, vagyis a sajátértékek halmazát a mátrix spektrumának nevezzük [1] [2] [3] .
Tényezőzzük a karakterisztikus polinomot :
Az n i természetes számot a sajátérték algebrai többszörösének nevezzük . Ha a skalármező algebrailag zárt , akkor az algebrai multiplicitások összege N :
Minden sajátértékhez külön egyenletet kell megoldani a sajátvektorokra:
Minden ilyen egyenletre létezik lineárisan független megoldás. Az m i megoldások lineáris kombinációi a sajátértékhez társított sajátvektorok . Az m i egész számot az érték geometriai multiplicitásának nevezzük . Előfordulhat, hogy az algebrai multiplicitás és a geometriai multiplicitás nem esik egybe, de mindig . A lineárisan független sajátvektorok teljes száma a geometriai multiplicitások összegzésével számítható ki
A sajátvektorok sajátértékekkel indexelhetők egy kettős index segítségével, amely az i - edik sajátérték j -edik sajátvektorát jelenti . Az egyszerűbb indexelés egyetlen indexet használ, ahol .
Legyen négyzetes mátrix n lineárisan független q i ( ) sajátvektorral . Utána lehet bomlani
,ahol egy négyzetes mátrix, amelynek i -edik oszlopa a mátrix sajátvektora , és egy átlós mátrix , amelynek átlós elemei a megfelelő sajátértékek, . Figyeljük meg, hogy csak az átlósítható mátrixok bonthatók így fel. Például egy eltolási mátrix nem diagonalizálható.
Általában a q i sajátvektorok normalizáltak , de ez nem szükséges, n sajátvektorból álló v i nem normalizált halmaz is használható mátrixoszlopként .
A dekompozíciót a sajátvektorok alapvető tulajdonságából kaphatjuk meg:
Valódi mátrix
nem szinguláris mátrixszal való szorzással átlós alakra redukálható
Akkor
valami valódi átlós mátrixhoz .
A bal oldali egyenlőség mindkét oldalát megszorozva -vel, a következőt kapjuk:
A fenti egyenlőség két egyenletrendszerre bontható :
Az x és y sajátértékek kivétele :
Kapunk
amely két vektoregyenletet ad:
Ez utóbbi rendszer egyetlen vektoregyenlettel ábrázolható, amely két sajátérték megoldását tartalmazza:
,ahol a két x és y sajátértéket jelöli , valamint a és a vektorokat .
Bal oldalra lépve és kiszedve kapunk
Mivel a mátrix nem degenerált, fontos, hogy a vektor ne legyen nulla. Ezért,
Akkor
megadja nekünk a mátrix sajátérték-megoldásait, mint vagy , és a mátrixbontásból kapott diagonális mátrix ekkor .
Ha a megoldásokat visszahelyettesítjük a fenti egyenletrendszerbe, azt kapjuk
Az egyenleteket megoldva azt kapjuk
Ekkor a mátrix faktorizálásához szükséges mátrix az
Azaz:
Legyen a mátrixnak spektrális dekompozíciója, és a mátrix egyik sajátértéke sem egyenlő nullával. Ebben az esetben a mátrix nem szinguláris , és az inverz mátrixát a képlet határozza meg
Ha a mátrix szimmetrikus mátrix , akkor a mátrix garantáltan ortogonális , azaz . És mivel a mátrix átlós , akkor az inverze könnyen kiszámítható:
Gyakorlati érték [4]Ha egy valós adatokkal mért mátrixon sajátvektor-bontást alkalmazunk , akkor az inverz mátrix rosszabb lehet , ha az összes sajátértéket változatlan formában használjuk. A lényeg az, hogy amikor a sajátértékek viszonylag kicsivé válnak, az inverzeik hozzájárulása az inverz mátrixhoz nagy. Ezek a nullához közeli értékek vagy a mérőrendszer "zaj" túlzottan befolyásolják és zavarhatják az inverziós megoldást.
Két enyhítési lehetőséget javasoltak: a kis vagy nulla sajátértékek elvetését, és a legkisebb megbízható érték másolását kisebbekre.
Az első mérséklési lehetőség hasonló az eredeti mátrix ritkításához, amelyben eltávolítják a jelentéktelennek tekintett elemeket. Ha azonban a megoldási folyamatról kiderül, hogy közel van a zajszinthez, a visszaállítás eltávolíthatja a kívánt megoldást befolyásoló összetevőket.
A második mérséklési lehetőség a sajátértéket másolja, így a kisebb értékek kevésbé befolyásolják az inverzió eredményét, de mégis hozzájárulnak ahhoz, hogy a zajszinthez közeli megoldások is megtalálhatók legyenek.
Megbízható sajátérték található, ha feltételezzük, hogy a sajátértékek rendkívül közel állnak egymáshoz, és az alacsony érték jól reprezentálja a mérési zajt (amely a legtöbb rendszernél alacsonynak tekinthető).
Ha a sajátértékek nagyság szerint vannak rendezve, megbízható sajátértéket találhatunk a rendezett sajátértékek laplaciánusának minimalizálásával [5] :
,ahol a sajátértékek s - vel vannak jelölve a rendezés jelölésére (angolból rendezve). A minimum helye a legkisebb megbízható sajátérték. Mérőrendszerekben ennek a megbízható sajátértéknek a négyzetgyöke a rendszer többi összetevőjéhez viszonyított átlagos zaj.
Legyen a négyzetmátrixnak egy dekompozíciója . Ezután a mátrix természetes hatványra emelését egy egyszerű képlettel számítjuk ki:
itt a termékek törlésre kerülnek a köztes kifejezésben . A természetes hatványra emelés művelete lehetővé teszi különböző függvények definiálását mátrixok felett, amelyeket hatványsorok formájában fejezünk ki. Legyen a függvénynek egy hatványsoros kiterjesztése
A mátrix sajátértékek szerinti bontása lehetővé teszi a hatványsor gyors kiszámítását a mátrixból. Legyen f ( x ) adott hatványsorral
A mátrix hatványának fenti képletével összhangban a mátrix hatványsorai a képlet segítségével számíthatók ki
,ahol a diagonális mátrix függvénye , amely nagyon könnyen kiszámítható:
Ebben az esetben a mátrix átlón kívüli elemei nullával egyenlőek. Vagyis egy átlós mátrix is. Ennek eredményeként a függvény mátrixból történő kiszámítása lecsökkent egy függvény egyszerű kiszámítására az egyes sajátértékekből.
Hasonló technika általánosabban működik a holomorf funkcionális kalkulusban is, a képlet felhasználásával
negatív kitevőt tartalmazó mátrixokból hatványsorokat lehet számítani. Itt is azt használják, hogy .
Egy mátrix négyzetgyöke:
Tegyük négyzet alakúra, és győződjünk meg a helyességéről:
A mátrix kitevőjét hasonló módon határozzuk meg :
Egy összetett négyzetmátrix akkor és csak akkor normális (ami azt jelenti, hogy hol van a Hermitian konjugátum ) akkor és csak akkor, ha felbontható
ahol unitárius (ami azt jelenti, hogy ) , és egy átlós mátrix [6] . A mátrix oszlopai ortonormális bázist alkotnak , és a mátrix sajátvektorai a megfelelő sajátértékekkel .
Ha a mátrixok osztálya hermitikus mátrixokra korlátozódik ( ), akkor csak valós értékei vannak. Ha a mátrixok osztálya unitárius mátrixokra korlátozódik, akkor minden érték a komplex egységkörön, azaz .
Bármely valós szimmetrikus mátrix esetében a sajátértékek valósak, és a sajátvektorok megválaszthatók valósnak és ortonormálisnak . Így egy valós szimmetrikus mátrix bontható fel
ahol egy ortogonális mátrix, amelynek oszlopai a mátrix sajátvektorai , és egy átlós mátrix, amelynek az átlón lévő értékei megegyeznek a mátrix sajátértékeivel [7] .
Tegyük fel, hogy ki kell számítani egy adott mátrix sajátértékeit. Ha a mátrix méretei kicsik, a sajátértékek szimbolikusan kiszámíthatók a karakterisztikus polinom segítségével . Ez azonban gyakran nem lehetséges nagy mátrixok esetén, ilyenkor numerikus módszereket használnak .
A gyakorlatban a nagy mátrixok sajátértékeit nem a karakterisztikus polinom segítségével számítják ki. Egy polinom számítása önmagában idő- és időigényessé válik, a nagyfokú polinom pontos (szimbolikus) gyökét pedig nehéz kiszámítani és kifejezni – ez következik Ábel gyökökben lévő egyenletek megoldhatatlanságáról szóló tételéből, hogy a nagyfokú (5 és magasabb) polinomok gyökei általában nem lehetnek, az n- edik fokú gyökökből származó kifejezésekként jelennek meg. Emiatt a sajátvektorok és sajátértékek megtalálására szolgáló általános algoritmusok iteratív módon működnek .
Vannak iteratív numerikus algoritmusok a polinomok gyökeinek közelítésére, mint például a Newton-módszer , de általában nem praktikus karakterisztikus polinomot létrehozni, majd ezeket a módszereket alkalmazni. Ennek egyik oka az, hogy a karakterisztikus polinom együtthatóiban előforduló kis kerekítési hibák nagy hibákhoz vezethetnek a sajátértékekben és a sajátvektorokban – a gyökök az együtthatók rendkívül rosszul kondicionált függvényei [8] .
Egy egyszerű és pontos iteratív módszer a hatványmódszer – kiválasztunk egy véletlen vektort , és kiszámítjuk az egységvektorok sorozatát.
Ez a sorozat szinte mindig a legnagyobb sajátértéknek megfelelő sajátvektorhoz konvergál, feltéve, hogy az ennek a sajátvektornak megfelelő vektor a sajátvektorok alapján nullától eltérő komponenst tartalmaz (és feltéve, hogy csak egy legnagyobb sajátérték van). Ez az egyszerű algoritmus hasznos néhány gyakorlati alkalmazásban. A Google például ennek segítségével számítja ki a dokumentumok link -rangsorát a keresőmotorjában [9] . Ezenkívül a hatványmódszer sok más összetett algoritmus kiindulópontja. Például, ha nem csak a sorozat utolsó vektorát tárolja, hanem a sorozat összes vektorának lineáris terjedelmét nézi , akkor jobb (gyorsabb konvergáló) közelítést kaphat a sajátvektorról, és ez az ötlet Arnoldi alapja. iteráció [8] . A szintén fontos QR-algoritmus szintén egy kissé módosított teljesítménymódszeren alapul [8] .
A sajátértékek kiszámítása után a sajátvektorok kiszámíthatók az egyenlet megoldásával
Gauss-eliminációval vagy bármely más mátrixegyenlet megoldási módszerrel .
A nagy mátrixok sajátértékeinek megtalálásának gyakorlati módszereiben azonban a sajátvektorokat általában más módon számítják ki a sajátérték-számítás melléktermékeként. A teljesítménymódszerben például a sajátvektort általában a sajátérték kiszámítása előtt számítják ki (amit általában a Rayleigh-relációnak megfelelően számítanak ki a sajátvektorra vonatkozóan) [8] . A Hermiti mátrix (vagy bármely normál mátrix ) QR-algoritmusában az ortonormális sajátvektorokat mátrixszorzatként kapjuk meg az algoritmus lépéseiből [8] . (Általánosabb mátrixok esetén a QR-algoritmus először egy Schur-felbontást hajt végre, amelyből a sajátvektorok visszahelyettesítéssel nyerhetők [10] ) Hermitiánus mátrixok esetén az oszd meg és győzz sajátérték-kereső algoritmus hatékonyabb, mint a QR-algoritmus, ha sajátvektorokra és sajátértékekre is szükség van [8] .
Emlékezzünk vissza, hogy egy sajátérték geometriai multiplicitása leírható a kapcsolódó sajáttér, a mátrix magjának dimenziójaként . Az algebrai multiplicitás dimenzióként is felfogható - ez a kapcsolódó általánosított sajáttér dimenziója (1. értelemben), amely a mátrix magja bármely kellően nagy k esetén . Vagyis ez az általánosított sajátvektorok tere (első értelemben), ahol általánosított sajátvektor bármely olyan vektor, amely végül 0 lesz, ha elegendő alkalommal alkalmazzuk. Bármely sajátvektor egy általánosított sajátvektor, ezért bármely sajáttér benne van a hozzá tartozó általánosított sajáttérben. Ez egyszerű bizonyítékot ad arra, hogy a geometriai multiplicitás soha nem haladja meg az algebrai sokszínűséget.
Ez a használat nem tévesztendő össze az alábbiakban ismertetett általánosított sajátérték-problémával .
A konjugált sajátvektor egy olyan vektor, amely lineáris transzformáció után bemegy (a skalárral való szorzásig) a konjugátumába. A skalárt ezután a lineáris transzformáció konjugált sajátértékének nevezzük. A konjugált sajátvektorok és sajátértékek lényegében ugyanazt az információt képviselik, mint a közönséges sajátvektorok és sajátértékek, de más koordinátarendszerek használatakor keletkeznek. A megfelelő egyenlőség lesz
Például a koherens elektromágneses szórás elméletében a lineáris transzformáció a szóró tárgy által végrehajtott cselekvést, a sajátvektorok pedig az elektromágneses hullám polarizációs állapotait reprezentálják. Az optikában a koordinátarendszert a hullám szempontjából határozzák meg, Forward Scattering Alignment néven ( eng. Forward Scattering Alignment , FSA), és közönséges sajátérték-egyenleteket generál, míg a radarban a koordinátarendszert a A radar oldalán visszaszórási illesztésként ( Eng. Back Scattering Alignment , BSA) ismert, és egyenleteket generál a konjugált sajátvektorokhoz.
A sajátértékek megtalálásának általános problémája (második értelemben) egy olyan vektor megtalálásának problémája, amely kielégíti az egyenlőséget .
hol és vannak mátrixok. Ha ezt az egyenlőséget néhány esetén kielégíti , akkor a mátrixok általánosított sajátvektorának és (második értelemben), és a mátrixok általánosított sajátértékének nevezzük , és (második értelemben), az általánosított sajátvektornak megfelelően . A lehetséges értékeknek ki kell elégíteniük a következő egyenlőséget
Ha lehetséges olyan lineárisan független vektorokat találni , hogy bármely , esetén mátrixokat definiáljunk és a következőképpen
Ekkor a következő egyenlőség áll fenn
Bizonyíték
És mivel reverzibilis, ezzel az inverzével megszorozzuk, és megkapjuk a kívánt eredményt.
A alakú mátrixok halmazát , ahol egy komplex szám, kötegnek nevezzük . A mátrixok kötege kifejezés egy mátrixpárra is utalhat [11] .
Ha a mátrix invertálható, akkor az eredeti probléma átírható
ami a standard sajátérték probléma. A legtöbb esetben azonban nem kívánatos ennek az inverziónak a végrehajtása, hanem az általánosított sajátérték probléma megoldása. Ez különösen fontos, ha a és mátrixok hermitikusak , mivel ebben az esetben általában nem hermitikus, és a megoldás fontos tulajdonságai már nem jelennek meg.
Ha mind a és a mátrixok szimmetrikusak és hermitikusak, és pozitív definitív is , akkor a sajátértékek valósak, a és a különböző sajátértékekkel rendelkező sajátvektorok pedig -ortogonálisak ( ) [12] . Ebben az esetben a sajátvektorokat úgy választhatjuk meg, hogy a fent definiált mátrix megfeleljen a feltételeknek
vagy ,és van egy alapja az általánosított sajátvektoroknak (ez nem hibamátrix ) [11] . Ezt az esetet néha Hermitian-definiált kévének nevezik [11] .
Vektorok és mátrixok | |||||||||
---|---|---|---|---|---|---|---|---|---|
Vektorok |
| ||||||||
mátrixok |
| ||||||||
Egyéb |