Legkisebb négyzet alakú módszer

Az oldal jelenlegi verzióját még nem ellenőrizték tapasztalt közreműködők, és jelentősen eltérhet a 2022. június 3-án felülvizsgált verziótól ; az ellenőrzések 4 szerkesztést igényelnek .

A legkisebb négyzetek módszere (LSM)  egy matematikai módszer, amelyet különféle problémák megoldására használnak, és azon alapul, hogy minimalizálják egyes függvények kísérleti bemeneti adatoktól való eltéréseinek négyzetösszegét. Használható túldefiniált egyenletrendszerek "megoldására" (amikor az egyenletek száma meghaladja az ismeretlenek számát), megoldást találni közönséges (nem túlhatározott) nemlineáris egyenletrendszerek esetén, közelíteni a pontértékeket. egy bizonyos funkció. Az OLS a regresszióanalízis egyik alapvető módszere a regressziós modellek ismeretlen paramétereinek mintaadatokból történő becslésére.

Történelem

A XIX. század elejéig. a tudósoknak nem voltak bizonyos szabályai egy olyan egyenletrendszer megoldására , amelyben az ismeretlenek száma kevesebb, mint az egyenletek száma; Addig az egyenletek típusától és a számológépek találékonyságától függően sajátos módszereket alkalmaztak, ezért a különböző számológépek azonos megfigyelési adatokból kiindulva eltérő következtetésekre jutottak. Gauss (1795) nevéhez fűződik a módszer első alkalmazása, Legendre (1805) pedig önállóan fedezte fel és publikálta mai nevén ( franciául:  Méthode des moindres quarrés ) [1] . Laplace összekapcsolta a módszert a valószínűség elméletével , és Adrain amerikai matematikus (1808) annak valószínűségi alkalmazásait vizsgálta [2] . A módszer széles körben elterjedt, és Encke , Bessel , Hansen és mások további kutatásai továbbfejlesztették .

A. A. Markov 20. század eleji munkái lehetővé tették a legkisebb négyzetek módszerének beépítését a matematikai statisztika becslési elméletébe , amelyben ez fontos és természetes része. Y. Neiman, F. David, A. Aitken, S. Rao erőfeszítései révén számos fontos eredmény született ezen a területen [3] .

A legkisebb négyzetek módszerének lényege

Legyen , skaláris kísérleti adatok halmaza , vektoros kísérleti adatok halmaza, és tegyük fel, hogy függ -től .

Bevezetünk néhány (legegyszerűbb esetben lineáris) skalárfüggvényt , amelyet az ismeretlen paraméterek vektora határoz meg .

A feladat egy olyan vektor megtalálása , amelyben a hibák összessége bizonyos értelemben minimális.

A legkisebb négyzetek módszere szerint a probléma megoldása a vektor , amely minimalizálja a függvényt

A legegyszerűbb esetben , és akkor a legkisebb négyzetek eredménye lesz a bemeneti adatok számtani átlaga.

Az LSM előnye a más típusú hibák minimalizálásával szemben, hogy ha differenciálható -hoz képest , akkor differenciálható is. A parciális derivált nullával való egyenlővé tétele a problémát egy egyenletrendszer megoldására redukálja, és ha lineárisan függ , akkor az egyenletrendszer lineáris lesz.

Példa erre egy lineáris egyenletrendszer

Különösen a legkisebb négyzetek módszere használható a lineáris egyenletrendszer "megoldására".

,

ahol egy téglalap alakú mátrix (azaz az A mátrix sorainak száma nagyobb, mint a keresett változók száma).

Egy ilyen egyenletrendszernek általában nincs megoldása. Ezért ez a rendszer csak abban az értelemben „megoldható”, hogy ilyen vektort választunk, hogy minimalizáljuk a vektorok és a vektorok közötti „távolságot” . Ehhez alkalmazhatja a rendszer bal és jobb oldali egyenletrészei közötti különbségek négyzetösszegének minimalizálására vonatkozó kritériumot, azaz . Könnyen kimutatható, hogy ennek a minimalizálási feladatnak a megoldása a következő egyenletrendszer megoldásához vezet

.

A pszeudo-inverziós operátor használatával a megoldás a következőképpen írható át:

,

ahol  a pszeudoinverz mátrix .

Ez a probléma az úgynevezett súlyozott legkisebb négyzetek használatával is "megoldható" (lásd alább), amikor a rendszer különböző egyenletei elméleti megfontolásból eltérő súlyt kapnak.

A módszer érdemi alkalmazhatóságának szigorú alátámasztását és határainak meghatározását A. A. Markov és A. N. Kolmogorov adta .

OLS a regressziós elemzésben (adatközelítés)

Legyen valamilyen változó értéke (lehet megfigyelések, kísérletek eredményei stb.) és a megfelelő változók . A feladat az, hogy közelítsük a kapcsolatot néhány ismeretlen paraméterig ismert függvények és függvények között , vagyis valójában megtaláljuk a paraméterek legjobb értékét, amelyek az értékeket a lehető legközelebb hozzák a tényleges értékekhez . Valójában ez egy túl meghatározott egyenletrendszer "megoldásának" esetére redukálódik, tekintettel :

.

A regressziós elemzésben, és különösen az ökonometriában a változók közötti kapcsolat valószínűségi modelljeit alkalmazzák.

,

hol  vannak az úgynevezett véletlenszerű modellhibák.

Ennek megfelelően a megfigyelt értékek eltéréseit a modellértékektől már magában a modellben is feltételezzük. Az LSM (szokásos, klasszikus) lényege, hogy olyan paramétereket találjon, amelyek mellett a négyzetes eltérések (hibák, regressziós modelleknél ezeket gyakran regressziós maradékoknak ) összege minimális lesz:

,

hol  van az angol. A maradék négyzetösszeg [4] meghatározása a következő:  

.

Általában ez a probléma numerikus optimalizálási (minimalizálási) módszerekkel oldható meg. Ebben az esetben nemlineáris legkisebb négyzetekről beszélnek (NLS vagy NLLS - angol  Non-Linear Least Squares ). Sok esetben analitikus megoldást lehet kapni. A minimalizálási probléma megoldásához meg kell találni a függvény stacionárius pontjait úgy, hogy azt ismeretlen paraméterek alapján differenciáljuk, a deriváltokat nullával egyenlővé kell tenni, és meg kell oldani a kapott egyenletrendszert:

.

OLS lineáris regresszió esetén

Legyen a regressziós függés lineáris :

.

Legyen y  a magyarázott változó megfigyeléseinek oszlopvektora, és faktorok  megfigyelésének mátrixa (a mátrix sorai az adott megfigyelés faktorértékeinek vektorai, az oszlopok mentén pedig az értékek vektorai egy adott tényező minden megfigyelésben). A lineáris modell mátrixábrázolása a következő formájú:

.

Ekkor a magyarázott változó becslési vektora és a regressziós maradékok vektora egyenlő lesz

.

ennek megfelelően a regressziós maradékok négyzeteinek összege egyenlő lesz

.

Ezt a függvényt a paramétervektorral differenciálva és a deriváltokat nullával egyenlővé téve egy egyenletrendszert kapunk (mátrix formában):

.

A megfejtett mátrix formában ez az egyenletrendszer így néz ki:

ahol az összes összeget átveszi az összes megengedett érték .

Ha a modellben (szokás szerint) szerepel egy konstans, akkor mindenre , tehát az egyenletrendszer mátrixának bal felső sarkában a megfigyelések száma , az első sor és az első oszlop többi elemében pedig - csak a változók értékeinek összege: és a rendszer jobb oldalának első eleme a .

Ennek az egyenletrendszernek a megoldása adja meg a lineáris modell legkisebb négyzetes becsléseinek általános képletét:

.

Analitikai célokra ennek a képletnek az utolsó ábrázolása bizonyul hasznosnak (az egyenletrendszerben, ha n-nel osztjuk, az összegek helyett a számtani átlagok jelennek meg). Ha az adatok a regressziós modellben vannak középre állítva , akkor ebben az ábrázolásban az első mátrix a faktorok minta kovarianciamátrixát jelenti, a második pedig a faktor kovarianciavektor a függő változóval. Ha ezen felül az adatokat RMS-re is normalizáljuk (vagyis végül standardizáljuk ), akkor az első mátrix faktorok mintakorrelációs mátrixát, a második vektort pedig függő változós faktorok mintakorrelációinak vektorai jelenti.

A konstans modellek LLS becsléseinek fontos tulajdonsága,  hogy a megszerkesztett regresszió vonala átmegy a mintaadatok súlypontján, azaz teljesül az egyenlőség:

.

Különösen szélsőséges esetben, amikor az egyetlen regresszor egy konstans, azt találjuk, hogy egyetlen paraméter (maga az állandó) OLS-becslése megegyezik a magyarázott változó átlagértékével. Vagyis a nagy számok törvényeiből jó tulajdonságairól ismert számtani átlag is a legkisebb négyzetek becslése - teljesíti az ettől való eltérések minimális négyzetösszegére vonatkozó kritériumot.

A legegyszerűbb speciális esetek

Páros lineáris regresszió esetén, amikor egy változó lineáris függését megbecsüljük egy másik változótól, a számítási képletek leegyszerűsödnek (a mátrixalgebra nélkül is megoldható). Az egyenletrendszernek a következő formája van:

.

Innen könnyű megtalálni az együtthatók becsléseit:

Bár a konstans modellek általában előnyösebbek, bizonyos esetekben elméleti megfontolások alapján ismert, hogy a konstansnak nullának kell lennie. Például a fizikában a feszültség és az áram közötti kapcsolat alakja ; feszültség és áram mérésénél meg kell becsülni az ellenállást. Ebben az esetben a modellről beszélünk . Ebben az esetben egyenletrendszer helyett egyetlen egyenletünk van

.

Ezért az egyetlen együttható becslésére szolgáló képlet alakja a következő

.

A polinommodell esete

Ha az adatokat egy változó polinomiális regressziós függvényével közelítjük , akkor az egyes fokszámokat független faktorként felfogva lehetőség nyílik a modell paramétereinek becslésére a lineáris modellparaméterek becslésére szolgáló általános képlet alapján. Ehhez az általános képletben elegendő figyelembe venni, hogy az és ilyen értelmezésével . Ezért a mátrixegyenletek ebben az esetben a következő formában lesznek:

Az OLS-becslések statisztikai tulajdonságai

Először is megjegyezzük, hogy a lineáris modellek esetében a legkisebb négyzetek becslései lineáris becslések, amint az a fenti képletből következik. Az elfogulatlan OLS becsléseknél szükséges és elegendő a regresszióanalízis legfontosabb feltételének teljesítése : a tényezők függvényében a véletlenszerű hiba matematikai elvárása nullával kell, hogy legyen. Ez a feltétel különösen akkor teljesül, ha

  1. a véletlen hibák matematikai elvárása nulla és
  2. a tényezők és a véletlen hibák független valószínűségi változók .

A konstans modellek első feltétele mindig teljesítettnek tekinthető, mivel a konstans nem nulla matematikai hibaelvárást vesz fel (ezért a konstans modellek általában előnyösebbek).

A második feltétel - az exogén tényezők feltétele - alapvető. Ha ez a tulajdonság nem teljesül, akkor feltételezhetjük, hogy szinte minden becslés rendkívül nem kielégítő: még konzisztens sem lesz (vagyis ebben az esetben még a nagyon nagy adatmennyiség sem teszi lehetővé minőségi becslések készítését). Klasszikus esetben a faktorok determinizmusával kapcsolatban erősebb feltételezés történik, szemben a véletlenszerű hibával, ami automatikusan azt jelenti, hogy az exogén feltétel teljesül. Általános esetben a becslések konzisztenciájához elegendő teljesíteni az exogenitási feltételt a mátrix valamely nem szinguláris mátrixhoz való konvergenciájával, a minta méretének végtelenig történő növelésével.

Ahhoz, hogy a konzisztencián és a torzítatlanságon kívül a (szokásos) legkisebb négyzetek becslései is hatékonyak legyenek (a lineáris torzítatlan becslések osztályának legjobbjai), a véletlen hiba további tulajdonságainak teljesülniük kell:

Ezek a feltételezések megfogalmazhatók a véletlenszerű hibák vektorának kovarianciamátrixára .

Az ilyen feltételeket kielégítő lineáris modellt klasszikusnak nevezzük . A klasszikus lineáris regresszióra vonatkozó LLS -becslések torzítatlan , következetes és leghatékonyabb becslések az összes lineáris torzítatlan becslés osztályában . Amint az könnyen látható, az együtthatóbecslési vektor kovarianciamátrixa egyenlő lesz:

.

A hatékonyság azt jelenti, hogy ez a kovarianciamátrix "minimális" (az együtthatóbecslések bármely lineáris kombinációja, és különösen maguknak az együtthatóbecsléseknek van minimális szórása), vagyis a lineáris torzítatlan becslések osztályában az OLS becslések a legjobbak. . Ennek a mátrixnak az átlós elemei, az együtthatóbecslések varianciái fontos paraméterei a kapott becslések minőségének. A kovarianciamátrix kiszámítása azonban nem lehetséges, mivel a véletlen hiba varianciája ismeretlen. Bizonyítható, hogy a véletlenszerű hibák szórásának torzítatlan és konzisztens (a klasszikus lineáris modell esetén) becslése a következő érték:

.

Ezt az értéket behelyettesítve a kovarianciamátrix képletébe, megkapjuk a kovarianciamátrix becslését. Az így kapott becslések szintén elfogulatlanok és következetesek . Fontos az is, hogy a hibavariancia (és így az együtthatók szórása) becslése és a modellparaméterek becslései független valószínűségi változók, ami lehetővé teszi a modell együtthatóira vonatkozó hipotézisek teszteléséhez tesztstatisztikák készítését.

Meg kell jegyezni, hogy ha a klasszikus feltevések nem teljesülnek, akkor a legkisebb négyzetek paraméterbecslései nem a leghatékonyabb becslések (maradnak elfogulatlanok és konzisztensek ). A kovarianciamátrix becslése azonban még tovább romlik: elfogulttá és inkonzisztenssé válik . Ez azt jelenti, hogy a megszerkesztett modell minőségére vonatkozó statisztikai következtetések ebben az esetben rendkívül megbízhatatlanok lehetnek. A probléma megoldásának egyik módja a kovarianciamátrix speciális becsléseinek használata, amelyek konzisztensek a klasszikus feltevések megsértése esetén ( standard hibák a White formában és standard hibák a Newey-West formában ). Egy másik megközelítés az úgynevezett általánosított legkisebb négyzetek alkalmazása .

Általánosított legkisebb négyzetek

A legkisebb négyzetek módszere széles körű általánosítást tesz lehetővé. A maradékok négyzetösszegének minimalizálása helyett minimalizálható a maradékvektor valamilyen pozitív-definit másodfokú alakja , ahol  van valamilyen szimmetrikus pozitív-határozott súlymátrix. A közönséges legkisebb négyzetek ennek a megközelítésnek egy speciális esete, amikor a súlymátrix arányos az identitásmátrixszal. Mint ismeretes, a szimmetrikus mátrixokra (vagy operátorokra) létezik egy dekompozíció . Ezért a megadott funkcionális a következőképpen ábrázolható: , vagyis ez a funkcionális ábrázolható néhány transzformált „maradék” négyzetösszegeként. Így megkülönböztethetjük a legkisebb négyzetek módszereinek egy osztályát - LS-methods (Least Squares).

Bebizonyosodott (Aitken tétele), hogy egy általánosított lineáris regressziós modellre (amelyben nincs korlátozás a véletlen hibák kovarianciamátrixára) a leghatékonyabbak (a lineáris torzítatlan becslések osztályában) az ún. . generalizált legkisebb négyzetek (GLS, GLS - Generalized Least Squares)  - LS-módszer súlymátrixszal, amely megegyezik a véletlen hibák inverz kovarianciamátrixával: .

Megmutatható, hogy a lineáris modell paramétereinek GLS-becsléseinek képlete a következő formában van

.

Ezeknek a becsléseknek a kovarianciamátrixa egyenlő lesz

.

Valójában az OLS lényege az eredeti adatok bizonyos (lineáris) transzformációjában (P) és a szokásos legkisebb négyzetek alkalmazásában rejlik a transzformált adatokra. Ennek az átalakításnak az a célja, hogy a transzformált adatoknál a véletlenszerű hibák már kielégítsék a klasszikus feltételezéseket.

Súlyozott OLS

Átlós súlymátrix (és ennélfogva véletlen hibák kovarianciamátrixa) esetén rendelkezünk az úgynevezett súlyozott legkisebb négyzetekkel. Ebben az esetben a modell maradékainak súlyozott négyzetösszege minimalizálva van, vagyis minden megfigyelés kap egy "súlyt", amely fordítottan arányos a véletlen hiba szórásával ebben a megfigyelésben: . Valójában az adatokat a megfigyelések súlyozásával transzformálják (osztva a véletlenszerű hibák feltételezett szórásával arányos összeggel), és a súlyozott adatokra normál legkisebb négyzeteket alkalmaznak.

Lásd még

Jegyzetek

  1. Legendre, A legkisebb négyzeteken. Franciából fordította Henry A. Ruger professzor és Helen M. Walker professzor, Teachers College, Columbia University, New York City. Archiválva : 2011. január 7. a Wayback Machine -nél 
  2. Aleksandrova, 2008 , p. 102.
  3. Linnik, 1962 , p. 21.
  4. Magnus, Katyshev, Peresetsky, 2007 , RSS-megjelölés nem egységes. Az RSS lehet a regression sum of squares, az ESS pedig a error sum of squares rövidítése, tehát az RSS és az ESS ellentétes jelentéssel bír. Val vel. 52. 2004-es kiadások..

Irodalom

  • Yu . V. Linnik A legkisebb négyzetek módszere és a megfigyelésfeldolgozás matematikai-statisztikai elméletének alapjai. - 2. kiadás - M. , 1962.(matematikai elmélet)
  • Ayvazyan S.A. Alkalmazott statisztika. Az ökonometria alapjai. 2. kötet - M . : Unity-Dana, 2001. - 432 p. - ISBN 5-238-00305-6 .
  • Dougherty K. Bevezetés az ökonometriába: Per. angolról. - M. : INFRA-M, 1999. - 402 p. — ISBN 8-86225-458-7 .
  • Kremer N. Sh., Putko B. A. Econometrics. - M . : Unity-Dana, 2003-2004. — 311 p. — ISBN 8-86225-458-7 .
  • Magnus Ya.R., Katyshev P.K., Peresetsky A.A. Econometrics. Kezdő tanfolyam. - M . : Delo, 2007. - 504 p. - ISBN 978-5-7749-0473-0 .
  • Ökonometria. Tankönyv / Szerk. Eliseeva I. I. – 2. kiadás. - M. : Pénzügy és statisztika, 2006. - 576 p. — ISBN 5-279-02786-3 .
  • Aleksandrova N. V. Matematikai kifejezések, fogalmak, megnevezések története: referenciaszótár. - 3. kiadás - M . : LKI, 2008. - 248 p. - ISBN 978-5-382-00839-4 .
  • Vitkovsky V.V. Legkisebb négyzetek // Brockhaus és Efron enciklopédikus szótára  : 86 kötetben (82 kötet és további 4 kötet). - Szentpétervár. , 1890-1907.
  • Mitin IV, Rusakov VS Kísérleti adatok elemzése és feldolgozása. — 5. kiadás. — 24 s.

Linkek