„Adatelemzés: lineáris és nem lineáris regresszió egy modellen bemutatva” változatai közötti eltérés
(→A Khí-négyzet módszer) |
(→Legkisebb négyzetek módszere) |
||
(21 közbenső módosítás, amit 2 másik szerkesztő végzett, nincs mutatva) | |||
1. sor: | 1. sor: | ||
== Általános statisztikai jellemzők == | == Általános statisztikai jellemzők == | ||
+ | Alapfogalmak: | ||
+ | *Átlag: ha van N darab adatpontunk (egy X vektorba rendezve), mindegyiket <math>x_i, i = 1\ldots N</math>-vel jelöljük, akkor az átlag: <math>E[X] = \mu = \bar{x} = \frac{1}{N} \sum_{i=1}^N x_i</math> | ||
+ | *Szórás: ha van N db, <math>\mu</math> átlagú adatpontunk, akkor ezek szórása: <math>\sigma = \sqrt{E\left[ X - \mu \right]^2}</math> | ||
+ | *Kovariancia: a kovariancia megadja két egymástól különböző változó (X,Y) együttmozgását: <math>\mathrm{Cov}(X,Y) = E \left[ \left( X - E[X] \right) \left( Y - E[Y] \right) \right] = E[XY] - E[X]\cdot E[Y]</math> | ||
+ | *Kovariancia mátrix: egy n adatpontból álló X és egy m adatpontból álló Y véletlen (random) vektor n*m-es kovariancia mátrixa: <math>\mathrm{Cov}(X,Y) = E\left[ \left( X - E[X] \right) \left( Y - E[Y] \right)' \right] = E[XY'] - E[X]E[Y]'</math>, ahol <math>E[XY']</math>, <math>E[Y]'</math> és <math>E[X]</math> vektorok és általános esetben mindegyik elemük az X és Y vektor eredeti elemének várható értéke (amennyiben a vektor komponensei különböző eloszlású valószínűségi változók). | ||
+ | *Keresztkorreláció: a keresztkorreláció segítségével megvizsgálhatjuk két adatsor hasonlóságát különböző időeltolásokra. Folytonos függvény esetén a definíció: <math>(f \star g)(t)\ \stackrel{\mathrm{def}}{=} \int_{-\infty}^{\infty} f^*(\tau)\ g(t+\tau)\,d\tau</math>, diszkrét adatpontok esetén pedig: <math>(f \star g)[n]\ \stackrel{\mathrm{def}}{=} \sum_{m=-\infty}^{\infty} f^*[m]\ g[n+m]</math>. Két fehér zaj függvény vagy vektor keresztkorrelációs függvénye egy Dirac-delta. | ||
+ | *Normált kereszt-korreláció: | ||
+ | *Autokorreláció: | ||
(Átlag szórás, kovariancia...) | (Átlag szórás, kovariancia...) | ||
+ | |||
== Modellek illesztése == | == Modellek illesztése == | ||
=== Lineáris regresszió === | === Lineáris regresszió === | ||
19. sor: | 28. sor: | ||
=== Legkisebb négyzetek módszere === | === Legkisebb négyzetek módszere === | ||
+ | A legkisebb négyzetek módszere bevezet egy metrikát arra nézve, hogy egy adott becslés az ismertelen <math>\alpha, \beta\,</math> paraméterekre mennyire optimális. Ezt a mértéket következő költségfüggvény adja meg: | ||
− | + | :<math>\mathrm{min}_{\alpha, \beta}\left( \sum_{i=1}^N [y_i - \alpha - \beta x_i]^2 \right)</math> | |
− | + | azaz a legkisebb négyzetes eltérést eredményező paraméter értékeket keressük. Legegyszerűbben úgy találhatjuk meg ezt a minimumot, hogy a paraméterek szerint lederiváljuk a költségfüggvényt, és a kapott kifejezést 0-val tesszük egyenlővé, és a kapott egyenletrendszert megoldjuk. Az eredmény: | |
− | + | :<math>\hat{\beta} = \frac{\sum_i^n ( x_i - \bar{x} )( y_i-\bar{y})}{\sum_i^n ( x_i - \bar{x} )^2} = \frac{\bar{xy} - \bar{x} \bar{y}}{\bar{x^2} - \bar{x}^2}</math> | |
− | <math>{ | + | :<math>\hat{\alpha} = \bar{y} - \hat{\beta}\bar{x}</math> |
− | + | ahol a felülvonás átlagolást jelent az n mérésen, a kalap pedig a módszer által adott becslést az adott paraméterre. Természetesen a levezetés általánosítható arra az esetre is, ha x több komponensű. Általánosabb költségfüggvényű módszerek is egyszerűen származtathatóak. Az x és y értékek korrelációját r adja: | |
− | + | :<math>r = \frac{\bar{xy} - n\bar{x} \bar{y}}{(n-1)\sigma_x \sigma_y}</math> | |
− | <math> | + | ahol <math>\sigma</math> a minta standard hibája. r értéke 1 ha tökéletes lineáris korreláció van, -1 ha tökéletes antikorreláció. A fit jóságát R^2 adja: |
− | + | :<math>R^2 = 1 - \frac{\sum (y_i - \bar{y})^2}{\sum (y_i - \hat{\alpha} - \hat{\beta}x_i)^2}</math> | |
− | <math> | + | <math>R^2</math>-et 1 ha tökéletesen lineárisak az adatok, általában a 0,95 körüli érték elfogadható fit szokott lenni. |
− | |||
− | |||
=== A Khí-négyzet módszer === | === A Khí-négyzet módszer === | ||
44. sor: | 52. sor: | ||
Ha a mérési pontok hibájának szórása nem egyforma (de továbbra is normál eloszlást követnek), akkor a legkisebb négyzetek módszerét könnyen általánosíthatjuk. Ez a Khí-négyzet illesztés, amelynek költségfüggvénye a következő: | Ha a mérési pontok hibájának szórása nem egyforma (de továbbra is normál eloszlást követnek), akkor a legkisebb négyzetek módszerét könnyen általánosíthatjuk. Ez a Khí-négyzet illesztés, amelynek költségfüggvénye a következő: | ||
− | <math>\chi^2 = \sum_{i=1}^N \left( \frac{y_i - | + | <math>\chi^2 = \sum_{i=1}^N \left( \frac{y_i - \alpha - \beta x_i}{\sigma_i} \right)^2</math> |
Tekinthetjük úgy, hogy a <math>\sigma_i</math> szórásokkal súlyozzuk az eltéréseket, vagy másképpen egységnyi szórásúra normálunk minden pontnál. | Tekinthetjük úgy, hogy a <math>\sigma_i</math> szórásokkal súlyozzuk az eltéréseket, vagy másképpen egységnyi szórásúra normálunk minden pontnál. | ||
− | Mivel a mérési pontokról feltételeztük, hogy normál eloszlást követnek, <math>\chi^2</math> ilyen véletlen változók négyzetének összege. Az ilyen típusú valószínűségi változók nem Gauss eloszlást, hanem az úgynevezett (N - M) szabadsági fokú Khí-négyzet eloszlást követik. Ha az <math>a_j</math> paraméterek lineárisan szerepelnek akkor ez az eloszlás analitikusan megadható, így megmondható annak valószínűsége (Q), | + | Mivel a mérési pontokról feltételeztük, hogy normál eloszlást követnek, <math>\chi^2</math> ilyen véletlen változók négyzetének összege. Az ilyen típusú valószínűségi változók nem Gauss eloszlást, hanem az úgynevezett (N - M) szabadsági fokú Khí-négyzet eloszlást követik. Ha az <math>a_j</math> paraméterek lineárisan szerepelnek akkor ez az eloszlás analitikusan megadható, így megmondható annak valószínűsége (Q), hogy az adott paraméterekkel jellemzett modellen végzett mérés <math>\chi^2</math>-nél nagyobb eltérést ad. (<math>Q \approx 0,1</math> tipikus, <math> Q \approx 0,01</math> elfogadható, <math> Q < 0,001</math> rossz modellre vagy hibabecslésre utal). Fontos, hogy a mérési hibák becslése jó legyen, különben megtévesztő eredményre juthatunk. |
+ | |||
+ | A levezetés lépései teljesen azonosak az előző esettel. | ||
+ | |||
+ | ==== Példa: egyenes illesztés ==== | ||
+ | Legegyszerűbb példa a lineáris regresszióra a kétparaméteres egyenesillesztés. | ||
+ | |||
+ | <math>y(x) = a + bx\,</math> | ||
+ | |||
+ | A költségfüggvényünk most: | ||
+ | |||
+ | <math>\chi^2(a,b) = \sum_{i=1}^N \left( \frac{y_i - a - bx_i}{\sigma_i} \right)^2</math> | ||
+ | |||
+ | A minimumban a deriváltak eltűnnek: | ||
+ | |||
+ | <math>0 = \frac{\partial \chi^2}{\partial a} = -2\sum_{i=1}^N \frac{y_i - a - bx_i}{\sigma_i^2}</math> | ||
+ | |||
+ | <math>0 = \frac{\partial \chi^2}{\partial b} = -2\sum_{i=1}^N \frac{x_i(y_i - a - bx_i)}{\sigma_i^2}</math> | ||
− | + | A fenti kifejezésekben a szummákat szétbonthatjuk az alábbi jelölések segítségével: | |
− | <math>\frac{\ | + | <math>S \equiv \sum_{i=1}^N \frac{1}{\sigma_i^2} \quad S_x \equiv \sum_{i=1}^N \frac{x_i}{\sigma_i^2} \quad S_y \equiv \sum_{i=1}^N \frac{y_i}{\sigma_i^2} \quad S_{xx} \equiv \sum_{i=1}^N \frac{x_i^2}{\sigma_i^2} \quad S_{xy} \equiv \sum_{i=1}^N \frac{x_iy_i}{\sigma_i^2}</math> |
− | + | Így a minimum feltétele a következő: | |
− | === | + | <math>aS + bS_x = S_y\,</math> |
+ | |||
+ | <math>aS_x + bS_{xx} = S_{xy}\,</math> | ||
+ | |||
+ | Az egyenletrendszer megoldása pedig: | ||
+ | |||
+ | <math>\Delta \equiv SS_{xx} - S_x^2</math> | ||
+ | |||
+ | <math>a = \frac{S_{xx}S_y - S_xS_{xy}}{\Delta}</math> | ||
+ | |||
+ | <math>b = \frac{SS_{xy}-S_xS_y}{\Delta}</math> | ||
+ | |||
+ | A hibaterjedés törvényét figyelembe véve a teljes szórás: | ||
+ | |||
+ | <math>\sigma_f^2 = \sum_{i=1}^N \sigma_i^2 \left( \frac{\partial f}{\partial y_i} \right)^2</math> | ||
+ | |||
+ | Amibe a-t és b-t behelyettesítve: | ||
+ | |||
+ | <math>\sigma_a^2 = \frac{S_{xx}}{\Delta}</math> | ||
+ | |||
+ | <math>\sigma_b^2 = \frac{S}{\Delta}</math> | ||
+ | |||
+ | Ezek a hibák természetesen csak a mérési hibák hatását fejezik ki, ettől a pontok szórhatnak messze az egyenestől. Az illesztés jóságát az (N-2) szabadsági fokú khí-négyzet eloszlás adja meg a <math>\chi^2</math> helyen. | ||
+ | |||
+ | Ha a mérés hibája nem ismert, akkor a fenti képletek a <math>\sigma_i = 1</math> behelyettesítéssel használhatók (úgy tekintjük, hogy mindegyik pont hibája megegyezik). | ||
+ | |||
+ | === Maximum Likelihood === | ||
+ | A maximum likelihood a legvalószínűbb becslést adja egy tetszőleges eloszlás paramétereire. Ha <math>x_1, ...x_n</math> megfigyelésünk van, és egy <math>f(x|a)</math> modellt szeretnénk fittelni, akkor független és azonos eloszlású minták esetén a feltételes valószínűség faktorizálható, azaz annak a valószínűsége, hogy az x mérési pontokat kaptuk feltéve, hogy a modell paraméterrendszere a: | ||
+ | |||
+ | :<math>f(x|a) = f(x_1|a) \cdot ... \cdot f(x_n|a)</math> | ||
+ | |||
+ | Ha megfordítjuk a logikát és azt kérdezzük, hogy feltéve, hogy x értékeket mértünk, mi a valószínűsége annak, hogy a modellt az a paraméterek jellemzik, akkor a likelihood függvényt kapjuk: | ||
+ | |||
+ | :<math>\mathcal{L}(a|x_1...x_n)=\prod_{i=1}^n f(x_i|a)</math> | ||
+ | |||
+ | vagy ha vesszük a logaritmusát: | ||
+ | |||
+ | :<math>\ln \mathcal{L}(a|x_1...x_n)=\sum_{i=1}^n \ln f(x_i|a)</math> | ||
+ | |||
+ | A legjobb becslést L (vagy ekvivalensen ln L) maximuma adja. Ha f a normális eloszlás, akkor könnyen kiszámolható a maximum a paraméterek szerinti deriváltak zérussá válásából. Ebből a szokásos értékeket kapjuk az átlagra (mérések összege / elemszám) és a szórásra (átlagtól való négyzetes eltérések átlaga). | ||
=== Nem-lineáris regresszió === | === Nem-lineáris regresszió === | ||
+ | Amennyiben a modell paraméterek a modellben nem-lineáris alakban szerepelnek, akkor a fenti módszerek nem működnek, ez vezet a nem-lineáris regresszió problémájára. Ez többek között azt is jelenti, hogy nincs garantálva, hogy egyetlen globális optimum van, ezért a megoldások analitikusan általában nem kezelhetők: csak numerikus közelítő eljárásokkal tudjuk előállítani a legjobb becsléseket. | ||
+ | |||
+ | Léteznek megfelelő általánosításai a legkisebb négyzetek módszerének nemlineáris esetekre, csak úgy, mint a legtöbb más modellnek is. | ||
+ | |||
+ | Szemléletesen ha a modell összefüggését a paraméterekkel az f függvény adja, akkor a paraméterek szerinti deriválásoknál megjelenik f deriváltja is. | ||
+ | |||
+ | ==== Nem-lineáris legkisebb négyzetek módszere==== | ||
+ | A költségfüggévny: | ||
+ | |||
+ | :<math>S = \sum_i^n \left[ y_i - f(a, x_i)\right]^2</math> | ||
+ | |||
+ | a derivált: | ||
+ | |||
+ | :<math>\frac{\partial S}{\partial a} = -2 \sum_i^n \left[ y_i - f(a, x_i)\right] \frac{\partial f(a, x_i}{\partial a} = 0</math> | ||
+ | Az így kapható egyenletrendszer nem-lineáris, ezért általában valamilyen iterációs módszerrel lehet csak kezelni, például a Newton-iteráció általánosítható nem-lineáris egyenletrendszerek megoldására. | ||
{{MSc záróvizsga}} | {{MSc záróvizsga}} |
A lap jelenlegi, 2011. június 16., 22:07-kori változata
Tartalomjegyzék
Általános statisztikai jellemzők
Alapfogalmak:
- Átlag: ha van N darab adatpontunk (egy X vektorba rendezve), mindegyiket -vel jelöljük, akkor az átlag:
- Szórás: ha van N db, átlagú adatpontunk, akkor ezek szórása:
- Kovariancia: a kovariancia megadja két egymástól különböző változó (X,Y) együttmozgását:
- Kovariancia mátrix: egy n adatpontból álló X és egy m adatpontból álló Y véletlen (random) vektor n*m-es kovariancia mátrixa: , ahol , és vektorok és általános esetben mindegyik elemük az X és Y vektor eredeti elemének várható értéke (amennyiben a vektor komponensei különböző eloszlású valószínűségi változók).
- Keresztkorreláció: a keresztkorreláció segítségével megvizsgálhatjuk két adatsor hasonlóságát különböző időeltolásokra. Folytonos függvény esetén a definíció: , diszkrét adatpontok esetén pedig: . Két fehér zaj függvény vagy vektor keresztkorrelációs függvénye egy Dirac-delta.
- Normált kereszt-korreláció:
- Autokorreláció:
(Átlag szórás, kovariancia...)
Modellek illesztése
Lineáris regresszió
A most leírt modell tulajdonságai a következők:
- prediktor változó: x
- az y-ok függetlenek
- adott x-re kapott y-ok normál eloszlásúak olyan átlaggal, ami az x lineáris függvényeként kapható meg
- Feladat: adott x-re y-t megmondani. A straight line regression model (egyenes vonal illesztő modell) alakja a köv:
, vagy indexesen
A normál analízis során azt feltételezzük, hogy epsilon_i-k független és azonosan 0 átlagú és szigma^2 szórású normál eloszlást követő változók. Az alfa+beta*x a determinisztikus rész, az epsilon_i a random zaj. Az előbbi érdekel minket.
Az illesztés során a legkisebb négyzetek módszerét használhatjuk.
Legkisebb négyzetek módszere
A legkisebb négyzetek módszere bevezet egy metrikát arra nézve, hogy egy adott becslés az ismertelen paraméterekre mennyire optimális. Ezt a mértéket következő költségfüggvény adja meg:
azaz a legkisebb négyzetes eltérést eredményező paraméter értékeket keressük. Legegyszerűbben úgy találhatjuk meg ezt a minimumot, hogy a paraméterek szerint lederiváljuk a költségfüggvényt, és a kapott kifejezést 0-val tesszük egyenlővé, és a kapott egyenletrendszert megoldjuk. Az eredmény:
ahol a felülvonás átlagolást jelent az n mérésen, a kalap pedig a módszer által adott becslést az adott paraméterre. Természetesen a levezetés általánosítható arra az esetre is, ha x több komponensű. Általánosabb költségfüggvényű módszerek is egyszerűen származtathatóak. Az x és y értékek korrelációját r adja:
ahol a minta standard hibája. r értéke 1 ha tökéletes lineáris korreláció van, -1 ha tökéletes antikorreláció. A fit jóságát R^2 adja:
-et 1 ha tökéletesen lineárisak az adatok, általában a 0,95 körüli érték elfogadható fit szokott lenni.
A Khí-négyzet módszer
Ha a mérési pontok hibájának szórása nem egyforma (de továbbra is normál eloszlást követnek), akkor a legkisebb négyzetek módszerét könnyen általánosíthatjuk. Ez a Khí-négyzet illesztés, amelynek költségfüggvénye a következő:
Tekinthetjük úgy, hogy a szórásokkal súlyozzuk az eltéréseket, vagy másképpen egységnyi szórásúra normálunk minden pontnál.
Mivel a mérési pontokról feltételeztük, hogy normál eloszlást követnek, ilyen véletlen változók négyzetének összege. Az ilyen típusú valószínűségi változók nem Gauss eloszlást, hanem az úgynevezett (N - M) szabadsági fokú Khí-négyzet eloszlást követik. Ha az paraméterek lineárisan szerepelnek akkor ez az eloszlás analitikusan megadható, így megmondható annak valószínűsége (Q), hogy az adott paraméterekkel jellemzett modellen végzett mérés -nél nagyobb eltérést ad. ( tipikus, elfogadható, rossz modellre vagy hibabecslésre utal). Fontos, hogy a mérési hibák becslése jó legyen, különben megtévesztő eredményre juthatunk.
A levezetés lépései teljesen azonosak az előző esettel.
Példa: egyenes illesztés
Legegyszerűbb példa a lineáris regresszióra a kétparaméteres egyenesillesztés.
A költségfüggvényünk most:
A minimumban a deriváltak eltűnnek:
A fenti kifejezésekben a szummákat szétbonthatjuk az alábbi jelölések segítségével:
Így a minimum feltétele a következő:
Az egyenletrendszer megoldása pedig:
A hibaterjedés törvényét figyelembe véve a teljes szórás:
Amibe a-t és b-t behelyettesítve:
Ezek a hibák természetesen csak a mérési hibák hatását fejezik ki, ettől a pontok szórhatnak messze az egyenestől. Az illesztés jóságát az (N-2) szabadsági fokú khí-négyzet eloszlás adja meg a helyen.
Ha a mérés hibája nem ismert, akkor a fenti képletek a behelyettesítéssel használhatók (úgy tekintjük, hogy mindegyik pont hibája megegyezik).
Maximum Likelihood
A maximum likelihood a legvalószínűbb becslést adja egy tetszőleges eloszlás paramétereire. Ha megfigyelésünk van, és egy modellt szeretnénk fittelni, akkor független és azonos eloszlású minták esetén a feltételes valószínűség faktorizálható, azaz annak a valószínűsége, hogy az x mérési pontokat kaptuk feltéve, hogy a modell paraméterrendszere a:
Ha megfordítjuk a logikát és azt kérdezzük, hogy feltéve, hogy x értékeket mértünk, mi a valószínűsége annak, hogy a modellt az a paraméterek jellemzik, akkor a likelihood függvényt kapjuk:
vagy ha vesszük a logaritmusát:
A legjobb becslést L (vagy ekvivalensen ln L) maximuma adja. Ha f a normális eloszlás, akkor könnyen kiszámolható a maximum a paraméterek szerinti deriváltak zérussá válásából. Ebből a szokásos értékeket kapjuk az átlagra (mérések összege / elemszám) és a szórásra (átlagtól való négyzetes eltérések átlaga).
Nem-lineáris regresszió
Amennyiben a modell paraméterek a modellben nem-lineáris alakban szerepelnek, akkor a fenti módszerek nem működnek, ez vezet a nem-lineáris regresszió problémájára. Ez többek között azt is jelenti, hogy nincs garantálva, hogy egyetlen globális optimum van, ezért a megoldások analitikusan általában nem kezelhetők: csak numerikus közelítő eljárásokkal tudjuk előállítani a legjobb becsléseket.
Léteznek megfelelő általánosításai a legkisebb négyzetek módszerének nemlineáris esetekre, csak úgy, mint a legtöbb más modellnek is.
Szemléletesen ha a modell összefüggését a paraméterekkel az f függvény adja, akkor a paraméterek szerinti deriválásoknál megjelenik f deriváltja is.
Nem-lineáris legkisebb négyzetek módszere
A költségfüggévny:
a derivált:
Az így kapható egyenletrendszer nem-lineáris, ezért általában valamilyen iterációs módszerrel lehet csak kezelni, például a Newton-iteráció általánosítható nem-lineáris egyenletrendszerek megoldására.