Regresja liniowa

21
Regresja liniowa Dany jest układ punktów n n y , x y , x y , x 2 2 1 1 x y b ax y i i x – zmienna objaśniająca (nie obarczona błędem) y – zmienna zależna (obarczona błędem) Naszym zadaniem jest poprowadzenie „najlepszej” prostej przez te punkty.

description

Regresja liniowa. Dany jest układ punktów. y. x. x – zmienna objaśniająca (nie obarczona błędem) y – zmienna zależna (obarczona błędem). Naszym zadaniem jest poprowadzenie „najlepszej” prostej przez te punkty. Wyznaczanie optymalnych parametrów a i b. - PowerPoint PPT Presentation

Transcript of Regresja liniowa

Page 1: Regresja liniowa

Regresja liniowa

Dany jest układ punktów

nn y,x

y,xy,x

22

11

x

y

baxy ii x – zmienna objaśniająca (nie obarczona błędem)

y – zmienna zależna (obarczona błędem)

Naszym zadaniem jest poprowadzenie „najlepszej” prostej przez te punkty.

Page 2: Regresja liniowa

xay

xxn

yxxyxb

xyx

xxyxxy

xxn

yxyxna

bba

aba

baxyyyba

n

ii

n

ii

n

iii

n

ii

n

ii

n

ii

n

ii

n

ii

n

ii

n

ii

n

iii

n

iii

n

i

oblii

2

11

2

1111

2

222

11

2

111

1

2

1

2

var,cov

0,0,

,

Wyznaczanie optymalnych parametrów a i b

Page 3: Regresja liniowa

Macierz wariancji-kowariancji wyznaczonych parametrów równania prostej

n

iiir

r

baxyn

E

1

22

12T

21

**

Apppp

22

11

2

1212

1

22

11

2

1

2

222

12

22

11

2

211

12

rn

ii

n

ii

n

ii

rab

rn

ii

n

ii

n

ii

rb

rn

ii

n

ii

ra

xxn

x

xxn

x

xxn

n

A

A

A

r2 – wariancja resztowa

Page 4: Regresja liniowa

x

y

Ocena wyników regresji:

-Test dobroci dopasowania (2)

-Test istotności efektu liniowego (współczynnik korelacji)

Page 5: Regresja liniowa

2

2

11

22

11

2

1 11

varvar,cov

r

yynxxn

yxyxn

yxyxr

n

ii

n

ii

n

ii

n

ii

n

i

n

iii

n

iii

współczynnik determinacji (ułamek wyjaśnionej wariancji)

r > 0 – korelacja dodatnia

r<0 – korelacja ujemna

|r|>0.7 – dobra korelacja

0.3<|r|<0.7 – słaba korelacja

|r|<0.3 – brak korelacji

Page 6: Regresja liniowa

2

1

1

2

1

2

1

2

n

yy

yyyy

F n

i

oblii

n

i

oblii

n

ii

Page 7: Regresja liniowa

Bardziej ogólny przypadek dopasowywania równania prostej: regresja ważona

n

iiii

n

i i

ii baxywbaxyb,a1

2

12

2

n

i i

in

i i

n

i i

i

n

i i

iin

i i

in

i i

i

ybax

yxbxax

12

12

12

12

12

12

2

1

Page 8: Regresja liniowa

Linearyzacja

Mamy dopasować funkcję nieliniową

y=f(x,y;a.b)

Przekształcamy funkcję do takiej postaci aby uzyskać postać zlinearyzowaną

=+

Gdzie jest nową zmienną zależną, nową zmienną objaśniającą a a i b są nowymi parametrami, przy czym ogólnie=(x,y), =(x,y), =(a,b), =(a,b)

Page 9: Regresja liniowa

Przykład problemu nieliniowego linearyzowalnego: kinetyka reakcji pierwszego rzędu

o

o

o

k

CkCtktCtAktCtA

BA

ln

lnlnlnexp

Page 10: Regresja liniowa

Jeżeli chcemy postępować poprawnie to należy wykonać regresję ważoną, wyliczając wagi poszczególnych przekształconych zmiennych objaśniających zgodnie z rachunkiem błędów.

22

22

2ii x

i

iy

i

ii xy

W poprzednim przykładzie

2

22ln

2 1AA A

Page 11: Regresja liniowa

Inne przykłady linearyzacji:

Równanie Michalisa-Mentena

S

KSKS m

m

1v1

vv1vv

maxmax

max

Równanie Hilla

KpnyyKp

yy n lnln

1ln

1

Page 12: Regresja liniowa

Obie zmienne są obarczone porównywalnym błędem

x

y x

y

22222

22xyxyy a

xy

Poprawiona wartość wagi zależy od a, które jest parametrem regresji. Problem liniowy przekształca się w nieliniowy. Problem można obejść przeprowadzając najpierw “zwykłą” regresję i wyznaczyć przybliżone a, następnie wstawić a do wzoru na wagi i przeprowadzić regresję jeszcze raz.

Sposób: regresja ortogonalna

Page 13: Regresja liniowa

Regresja uogólniona albo analiza konfluentna

**2

*1

1

2*2

2*2

1

2*2

2*2

,,,;,11

11

n

n

iii

yii

x

n

iii

yii

x

xxxbabaxyxx

yyxx

ii

ii

x

y (x,y)

(x*,y*)

Page 14: Regresja liniowa

3

2

1

321

221

21

1

321

/

expexp1

3

2

1

kkk

CCytx

tkkk

ktkkkk

kCtC

CB

kkkBA

CA

o

o

k

k

k

p

Przykład problemu nieliniowego nielinearyzowalngo: kinetyka reakcji pierwszego rzędu z produktem przejściowym

Page 15: Regresja liniowa

Regresja liniowa wielokrotna

mm

nnmnn

m

m

xpxpxpy

yxxx

yxxxyxxx

2211

21

222221

111211

Zmienne objaśniające x1,x2,…,xm nie muszą odpowiadać różnym wielkościom lecz mogą być funkcjami tej samej wielkości mierzonej (np. jej kolejnymi potęgami w przypadku dopasowywania wielomianów).

Page 16: Regresja liniowa

2

22

21

T

1

2

12

1

T2

1

1000

010

001

1

n

n

i

p

jijji

i

n

i

p

jijji

xpy

xpy

W

XpYWXpY

XpYXpY regresja nieważona

regresja ważona

Page 17: Regresja liniowa

Przypadek szczególny: dopasowywanie wielomianu

nmnn

m

m

mm

yxx

yxxyxx

xpxppy

1

21

22

11

11

1110

1

11

Page 18: Regresja liniowa

m

iiimm

n

iim

n

iiim

n

iiim

m

iiim

n

iimi

n

ii

n

iii

m

iiim

n

iimi

n

iii

n

ii

yxpxpxxpxx

yxpxxpxpxx

yxpxxpxxpx

11

22

121

11

12

122

1

221

112

11

112

1211

1

21

WYXpWXX

YXpXXTT

TT

Page 19: Regresja liniowa

n

i

m

jijjir xpy

mn 1

2

1

2 1

Test F dla istotności efektu liniowego

mn

yy

m

yyyy

F n

i

oblii

n

i

oblii

n

ii

1

2

1

2

1

2

1

1

12

21

121,

m

mm

mmmn

mmF

Test F dla istotności włączenia nowych parmetrów

Page 20: Regresja liniowa

Przykład dopasowywania wielomianu: rozkład cosinusa kąta rozpraszania mezonów K z protonami (zakładamy że j=sqrt(yj).

j tj=cos(j) yj

1 -0.9 812 -0.7 503 -0.5 354 -0.3 275 -0.1 266 0.1 607 0.3 1068 0.5 1899 0.7 318

10 0.9 520

Page 21: Regresja liniowa

m p1 p2 p3 p4 p5 p6 f M F F0.9

1 57.85 9 833.55 -

2 82.66 99.10 8 585.45 3.92 3.458

2 47.27 185.96 273.61 7 36.41 105.55 3.589

4 37.94 126.55 312.02 137.59 6 2.85 70.65 3.776

5 39.62 119.10 276.49 151.91 52.60 5 1.68 3.48 4.060

6 39.88 121.39 273.19 136.58 56.90 16.72 4 1.66 0.05 4.545

n

i i

ii yy1

2

2