Négyzetmátrix

A matematikában a négyzetes mátrix  olyan mátrix , amelyben a sorok száma megegyezik az oszlopok számával, és ezt a számot a mátrix sorrendjének nevezik. Bármely két azonos sorrendű négyzetmátrix összeadható és szorozható.

A négyzetes mátrixokat gyakran használják egyszerű lineáris leképezések  , például vetemítés vagy rotáció ábrázolására . Például, ha R  egy elforgatást reprezentáló négyzetmátrix (rotációs mátrix ), és v  egy oszlopvektor , amely egy pont helyzetét határozza meg a térben, akkor az Rv szorzat egy másik vektort ad, amely meghatározza a pont elforgatás utáni helyzetét. Ha v  egy sorvektor , ugyanez a transzformáció érhető el a vR T használatával , ahol R T  az R - re transzponált mátrix .

Főátló

Az a ii ( i = 1, …, n ) elemek alkotják egy négyzetmátrix főátlóját. Ezek az elemek egy képzeletbeli egyenesen fekszenek, amely a mátrix bal felső sarkától a jobb alsó sarkáig halad [1] . Például az ábra 4x4-es mátrixának főátlója a 11 = 9, a 22 = 11, a 33 = 4, a 44 = 10 elemeket tartalmazza.

A négyzetmátrix bal alsó és jobb felső sarkán áthaladó átlóját oldalnak nevezzük .

Speciális típusok

Név Példa, ahol n = 3
Átlós mátrix
Alsó háromszögmátrix
Felső háromszög mátrix

Átlós és háromszögmátrixok

Ha a főátlón kívül minden elem nulla, akkor A -t átlónak mondjuk . Ha a főátló felett (alatt) minden elem nulla, A -t alsó (felső) háromszögmátrixnak nevezzük . Egy háromszög mátrixot, amelynek minden átlós bejegyzése 1, egységháromszögnek nevezzük [2] [3] .

Identitásmátrix

Az n méretű E n identitásmátrix  egy n × n mátrix, amelyben a főátlón minden elem egyenlő 1-gyel, a többi elem pedig 0-val (gyakran az I betűt használják az E betű helyett [4] ) [1] . Ily módon

Az identitásmátrixszal való szorzás a mátrixot változatlanul hagyja:

{{{1}}} bármely n × n A mátrixra .

Szimmetrikus és antiszimmetrikus mátrixok

Az A négyzetmátrixot , amely megegyezik a transzponáltjával , azaz A = A T , szimmetrikusnak nevezzük . Ha A előjelben különbözik a transzponált mátrixtól, azaz A = − A T , akkor A - t antiszimmetrikusnak (vagy ferde-szimmetrikusnak ) nevezzük [4] [5] . Komplex mátrixok esetén a szimmetria fogalmát gyakran felváltja az önadjungált fogalma, és az A ∗ = A egyenlőséget kielégítő mátrixot hermitikusnak (vagy önadjungáltnak ) nevezzük ; itt a csillag a hermitiánus konjugáció műveletét jelöli , melynek jelentése az eredeti mátrix minden elemének helyettesítése egy komplex konjugált számmal, majd a kapott mátrix transzponálása [6] [7] .

A spektrális tétel szerint a valós szimmetrikus mátrixok és a komplex hermitikus mátrixok esetében léteznek sajátvektorokból álló bázisok ; így bármely térvektor ábrázolható sajátvektorok lineáris kombinációjaként . Mindkét esetben minden sajátérték valós [8] . Ez a tétel kiterjeszthető a végtelen dimenziós esetre, amikor a mátrixok végtelen sok sorból és oszlopból állnak.

Invertálható mátrixok

Az A négyzetmátrixot invertálhatónak vagy nem szingulárisnak nevezzük , ha létezik olyan B mátrix ,

AB = BA = E [9] [10] .

Ha létezik B mátrix , akkor egyedi, és A inverzének nevezzük , és A −1 -ként írjuk le .

Határozott Mátrix

pozitív határozott határozatlan
Q ( x , y ) = 1/4 x 2 + 1/4 y 2 Q ( x , y ) = 1/4 x 2 − 1/4 y 2

A Q ( x , y ) = 1
( Ellipszis ) egyenletet kielégítő pontok .

A Q ( x , y ) = 1
( hiperbola ) egyenletet kielégítő pontok .

Egy szimmetrikus n × n mátrixot pozitív határozottnak (illetve negatív határozottnak vagy határozatlannak) nevezünk, ha minden x ∈ R n nem nulla vektorra a megfelelő másodfokú forma

Q ( x ) = x T Ax

csak pozitív értékeket vesz fel (illetve negatív értékeket vagy mindkettőt). Ha a másodfokú alak csak nem negatív (illetve csak nem pozitív) értékeket vesz fel, akkor a szimmetrikus mátrixot pozitív félig határozottnak (illetve negatív félig határozottnak) mondjuk. Egy mátrix akkor határozatlan, ha nem pozitív vagy negatív félig meghatározott [11] .

Egy szimmetrikus mátrix akkor és csak akkor pozitív határozott, ha minden sajátértéke pozitív [12] . A jobb oldali táblázat két lehetséges esetet mutat be 2×2-es mátrixokra.

Ha két különböző vektort használunk, akkor egy bilineáris formát kapunk, amely az A -hoz kapcsolódik :

B A ( x , y ) = x T Ay [13] .

Ortogonális mátrix

Az ortogonális mátrix  egy négyzetes mátrix valós elemekkel, amelyek oszlopai és sorai ortogonális egységvektorok (vagyis ortonormálisak). Az ortogonális mátrixot olyan mátrixként is meghatározhatja, amelynek inverze egyenlő a transzponálással [7] :

honnan következik

,

ahol E  az azonosságmátrix .

Az A ortogonális mátrix mindig invertálható ( A -1 = A T ), unitér ( A -1 = A *) és normál ( A * A = AA *). Bármely ortogonális mátrix determinánsa +1 vagy -1 [14] . Az ortogonális mátrixszal való szorzás az aritmetikai tér olyan lineáris transzformációját adja meg , amely a +1 determinánsú mátrix esetében egyszerű elforgatás , a −1 determinánsú mátrix esetében pedig vagy egyszerű tükrözés , ill . a tükrözés és a forgás szuperpozíciója.

Az ortogonális mátrix komplex analógja az egységes mátrix .

Műveletek

Következő

Az A négyzetmátrix nyoma (tr( A )) a főátló elemeinek összege. Míg a mátrixszorzás általában nem kommutatív, két mátrix szorzatának nyoma nem függ a tényezők sorrendjétől:

tr( AB ) = tr( BA ).

Ez közvetlenül következik a mátrixtermék definíciójából:

Ezenkívül egy mátrix nyoma megegyezik a transzponálásának nyomával, azaz.

tr( A ) = tr( A T ).

Meghatározó

Determináns det( A ) vagy | A | Az A négyzetmátrix  egy szám, amely meghatározza a mátrix néhány tulajdonságát. Egy mátrix akkor és csak akkor invertálható, ha a determinánsa nem nulla. A determináns abszolút értéke megegyezik az egységnégyzet (vagy kocka) képének területével ( R 2 -ben ) vagy térfogatával ( R 3 -ban), míg a determináns előjele a megfelelő leképezés tájolásának felel meg. a determináns akkor és csak akkor pozitív, ha az orientáció megmarad.

A 2×2 mátrixok determinánsát a képlet számítja ki

A 3×3 mátrix determináns 6 szorzatot használ ( Sarrus szabálya ). A hosszabb Leibniz-formula ezt a két formulát minden dimenzióra általánosítja [15] .

A mátrixok szorzatának determinánsa egyenlő a tényezők determinánsainak szorzatával:

det( AB ) = det( A ) • det( B ) [16] .

Bármely együtthatós sor hozzáadása egy másik sorhoz, vagy bármely együtthatós oszlop hozzáadása egy másik oszlophoz nem változtatja meg a meghatározót. Két sor vagy oszlop helycseréje a determináns előjelének megváltozásához vezet [17] . Ezekkel a műveletekkel bármely mátrix redukálható alsó (vagy felső) háromszögmátrixra, és az ilyen mátrixoknál a determináns megegyezik a főátló elemeinek szorzatával, ami módot ad bármely mátrix determinánsának kiszámítására. Végül Laplace tétele a determinánst a minorokkal , azaz a kisebb mátrixok determinánsaival fejezi ki [18] . Ez a tétel lehetővé teszi a determinánsok rekurzív számítását (egy 1x1-es mátrix determinánsából, vagy akár egy 0x0-s mátrix determinánsából, ami egyenlő 1-gyel), amelyek a Leibniz-formulával ekvivalensnek tekinthetők. A determinánsok segítségével lineáris rendszereket oldhatunk meg Cramer módszerével [19] .

Sajátértékek és sajátvektorok

Egy λ szám és egy nem nulla v vektor , amely kielégíti az egyenletet

Av = λ v ,

az A mátrix sajátértékének és sajátvektorának nevezzük [20] . Egy λ szám akkor és csak akkor az A mátrix n × n sajátértéke, ha A −λ E - nek nincs inverze , ami ekvivalens

[húsz]

A det( X E − A ) determinánsként kapott p A polinomot az ismeretlen X -ben az A mátrix karakterisztikus polinomjának nevezzük . Ez egy n fokú normalizált polinom . Így a p A (λ) = 0 egyenletnek legfeljebb n különböző megoldása van, azaz mátrix sajátértéke [21] . Ezek az értékek akkor is összetettek lehetnek, ha az A mátrix minden eleme valós . A Hamilton-Cayley tétel szerint p A ( A ) = 0 , vagyis ha magát a mátrixot behelyettesítjük a karakterisztikus polinomba, akkor nulla mátrixot kapunk [22] .

Jegyzetek

  1. 1 2 Voevodin és Kuznyecov, 1984 , p. 26.
  2. Voevodin és Kuznyecov, 1984 , p. 26-27.
  3. Ikramov, 1991 , p. 9-10.
  4. 1 2 Pobedrya, 1986 , p. 41.
  5. Voevodin és Kuznyecov, 1984 , p. 74.
  6. Voevodin és Kuznyecov, 1984 , p. 73.
  7. 1 2 Ikramov, 1991 , p. tíz.
  8. Horn és Johnson, 1989 , 2.5.6. tétel, p. 129-130.
  9. Brown, 1991 , Definition I.2.28, p. 21.
  10. Brown, 1991 , I.5.13. tétel, p. 61.
  11. Horn és Johnson, 1989 , 7.1. Fogalommeghatározások és tulajdonságok, p. 471-474.
  12. Horn és Johnson, 1989 , 7.2.1. tétel, p. 477-478.
  13. Horn és Johnson, 1989 , 4.0.6. példa, p. 202.
  14. Voevodin és Kuznyecov, 1984 , p. 71-72.
  15. Brown, 1991 , Definíció III.2.1, p. 167.
  16. Brown, 1991 , III.2.12. tétel, p. 173.
  17. Brown, 1991 , Következmény III.2.16, p. 174.
  18. Mirsky, 1990 , 1.4.1. tétel, p. 14-15.
  19. Brown, 1991 , III.3.18. tétel, p. 189.
  20. 1 2 Bellman, 1976 , p. 56.
  21. Brown, 1991 , Következmény III.4.10, p. 198.
  22. Gantmakher, 1988 , p. 87.

Linkek