EF Wyklad2 ARMAs

25
Zależności liniowe w szeregach stóp zwrotu instrumentów finansowych Szeregi finansowe charakteryzują się występowaniem zależności nieliniowych. Jednak często badamy, czy pomiędzy kolejnymi obserwacjami szeregu nie występują zależności liniowe. Proces stochastyczny: funkcja losowa zmiennych losowych X oraz nielosowego argumentu oznaczającego czas. Traktując zwroty z instrumentu finansowego (logarytmy zwrotów) jako zbiór zmiennych losowych w czasie otrzymujemy szereg czasowy. Szereg czasowy jest realizacją procesu stochastycznego. Teoria liniowych szeregów czasowych obejmuje: stacjonarność, zależność w sensie dynamicznym, funkcję autokorelacji, modelowanie szeregu i prognozowanie. Szczególną rolę informacyjną w budowaniu modeli ma korelacja zmiennej i jej wartości przeszłych. Stacjonarność: Ścisła – rozkład wartości szeregu nie zależy od momentu w czasie (pozostaje taki sam w miarę upływu czasu); wszystkie momenty (średnia, wariancja i momenty wyższego rzędu) są stałe i niezależne od czasu t; Słaba – 2 pierwsze momenty są niezależne od czasu C s y y y y D y E s s t t t t t ) )( cov( ) )( ( ) ( 2 2 Proces słabo stacjonarny ma stałą średnią, stałą i skończoną wariancję i stałą strukturę autokowariancji zależną wyłącznie od opóźnienia s. Alternatywne nazwy słabo stacjonarnych szeregów czasowych to: szeregi stacjonarne w szerszym sensie, stacjonarne kowariancyjnie lub stacjonarne drugiego rzędu. Co oznacza słaba stacjonarność szeregu: W przeszłości – wykres zwrotów oscyluje wokół stałej wartości, oscylacje mają ograniczony (skończony) zasięg; W przyszłości – 2 pierwsze momenty danych historycznych i prognozowanych są takie same; Ścisły biały szum Szereg finansowy jest nazywany białym szumem, jeśli ciąg r t jest ciągiem niezależnych zmiennych losowych o tym samym rozkładzie (independently and identically distibuted iid) ze skończoną średnią i wariancją. Biały szum gaussowski r t jest to stacjonarny proces o wartości oczekiwanej równej zero, skończonej wariancji i rozkładzie normalnym (proces czysto losowy - nie może być prognozowany): 2 ) var( 0 ) ( t t r r E s t dla s t dla s t 0 2 Jeżeli zmienne r t stanowią szereg kowariancyjnie stacjonarny i zerowych wartościach funkcji autokorelacji dla wszystkich opóźnień, to szereg nazywa się białym szumem. Autokowariancja rzędu k Szczególną rolę informacyjną w budowaniu modeli ma korelacja zmiennej i jej wartości przeszłych. Dla szeregu stacjonarnego wpływ szoku w momencie t l na zwrot r t zanika wraz ze wzrostem l. Niestacjonarność powoduje m.in., że wcześniejsze wartości błędu w modelu będą miały niemalejący wpływ na obecną wartość r t . )] )( [( ) , cov( l t t l t t l r r E r r Autokowariancja dla próby: T r r r r r r T t l t t l t t l 1 ) )( ( ) , cov( Funkcja autokowariancji (kowariancji l-tego rzędu) ma 2 własności:

Transcript of EF Wyklad2 ARMAs

Page 1: EF Wyklad2 ARMAs

Zależności liniowe w szeregach stóp zwrotu instrumentów finansowych

Szeregi finansowe charakteryzują się występowaniem zależności nieliniowych. Jednak często badamy, czy

pomiędzy kolejnymi obserwacjami szeregu nie występują zależności liniowe.

Proces stochastyczny: funkcja losowa zmiennych losowych X oraz nielosowego argumentu oznaczającego czas.

Traktując zwroty z instrumentu finansowego (logarytmy zwrotów) jako zbiór zmiennych losowych w czasie

otrzymujemy szereg czasowy. Szereg czasowy jest realizacją procesu stochastycznego.

Teoria liniowych szeregów czasowych obejmuje: stacjonarność, zależność w sensie dynamicznym, funkcję

autokorelacji, modelowanie szeregu i prognozowanie.

Szczególną rolę informacyjną w budowaniu modeli ma korelacja zmiennej i jej wartości przeszłych.

Stacjonarność:

Ścisła – rozkład wartości szeregu nie zależy od momentu w czasie (pozostaje taki sam w miarę upływu czasu);

wszystkie momenty (średnia, wariancja i momenty wyższego rzędu) są stałe i niezależne od czasu t;

Słaba – 2 pierwsze momenty są niezależne od czasu

Csyy

yyD

yE

sstt

tt

t

))(cov(

))((

)(22

Proces słabo stacjonarny ma stałą średnią, stałą i skończoną wariancję i stałą strukturę autokowariancji zależną

wyłącznie od opóźnienia s.

Alternatywne nazwy słabo stacjonarnych szeregów czasowych to: szeregi stacjonarne w szerszym sensie,

stacjonarne kowariancyjnie lub stacjonarne drugiego rzędu. Co oznacza słaba stacjonarność szeregu:

W przeszłości – wykres zwrotów oscyluje wokół stałej wartości, oscylacje mają ograniczony

(skończony) zasięg;

W przyszłości – 2 pierwsze momenty danych historycznych i prognozowanych są takie same;

Ścisły biały szum

Szereg finansowy jest nazywany białym szumem, jeśli ciąg rt jest ciągiem niezależnych zmiennych losowych o

tym samym rozkładzie (independently and identically distibuted iid) ze skończoną średnią i wariancją.

Biały szum gaussowski rt jest to stacjonarny proces o wartości oczekiwanej równej zero, skończonej wariancji i

rozkładzie normalnym (proces czysto losowy - nie może być prognozowany):

2)var(0)( tt rrE

stdla

stdlast

0

2

Jeżeli zmienne rt stanowią szereg kowariancyjnie stacjonarny i zerowych wartościach funkcji autokorelacji dla wszystkich opóźnień, to szereg nazywa się białym szumem.

Autokowariancja rzędu k

Szczególną rolę informacyjną w budowaniu modeli ma korelacja zmiennej i jej wartości przeszłych. Dla szeregu

stacjonarnego wpływ szoku w momencie t – l na zwrot rt zanika wraz ze wzrostem l. Niestacjonarność powoduje

m.in., że wcześniejsze wartości błędu w modelu będą miały niemalejący wpływ na obecną wartość rt.

)])([(),cov( lttlttl rrErr

Autokowariancja dla próby:

T

rrrrrr

T

tltt

lttl

1

))((),cov(

Funkcja autokowariancji (kowariancji l-tego rzędu) ma 2 własności:

Page 2: EF Wyklad2 ARMAs

lttrrrr

rrrr

r

ltttlt

tltlttll

t

1

)()(

0

),cov(),cov(

),cov(),cov(

)var(

11

Seryjna korelacja (autokorelacja):

)var(

),cov(

)var()var(

)cov( ,

t

ltt

ltt

ltt

lr

rr

rr

rr

Oczywiście: 10

Występowanie seryjnej korelacji oznacza, że zwroty są przewidywalne i wskazuje na potencjalną

nieefektywność rynku.

Funkcja autokorelacji dla próby:

T

tt

lT

tltt

l

rr

rrrr

1

2

1

)(

))((

Istnienie dostatecznie silnej autokorelacji szeregów stóp zwrotu pozwoliłoby na prognozowanie z dużym

prawdopodobieństwem i dokładnością stóp zwrotu w przyszłym okresie.

Istnieje wiele sposobów badania autokorelacji stóp zwrotu (funkcje autokorelacji, autokorelacji cząstkowej, testy

statystyczne);

Korelacja i funkcja autokorelacji (ACF)

)var()var(

)var(

),cov(

)var()(var(

),cov(

0

stt

l

t

ltt

ltt

ltts

xx

x

xx

xx

xx

T

ttT

tt

lT

tltt

l rrrr

rrrr

1

1

2

1 ,)(

))((

Współczynnik ρ mierzy siłę liniowej zależności pomiędzy rt i Y.

Własności współczynnika korelacji: 11 oraz xyyx ,,

.

2 zmienne losowe są nieskorelowane jeżeli 0,

yx . Dodatkowo, jeżeli obie zmienne są

normalnymi zmiennymi losowymi, wówczas 0,

yx tylko wówczas, gdy zmienne te są

niezależne.

Autokorelacja pierwszego rzędu:

T

tt

T

ttt

xx

xxxx

1

2

21

1

)(

))((̂

Dla zmiennej losowej rt o własności iid (niezależny jednakowy rozkład) i spełniającej warunek )( 2

trE ,

1 ma rozkład asymptotycznie normalny ze średnią 0 i wariancją 1/T. Własność ta wykorzystywana jest w

weryfikacji hipotezy:

0:10H

Page 3: EF Wyklad2 ARMAs

0:11H

Statystyka t: 1

1 ˆ/1

TT

t . Rozkład )1,0(~N .

Reguła decyzyjna: Odrzucić H0, gdy 2/Zt lub wartość p jest mniejsza niż założone α.

Autokorelacja s-tego rzędu:

10)(

))((ˆ

1

2

1

Tsxx

xxxx

T

tt

T

ststt

s

Testowanie autokorelacji dla większej liczby opóźnień:

Tt

s

ii

s

/)ˆ21(

ˆ1

1

2

W małych próbach estymator współczynnika korelacji jest obciążony. Dla prób o dużej liczebności obciążenie estymatora współczynnika korelacji nie jest poważne.

Test Portmanteau – służy do weryfikowania korelacji dla kilku opóźnień jednocześnie:

Statystyka Boxa-Pierce’a

m

ss

TmQ1

2ˆ)(

T – wielkość próby

m – maksymalne opóźnienie

},...,1{0:

0:

1

10

miH

H

i

m

rozkład zbliżony do rozkładu chi-kwadrat o m stopniach swobody.

Statystyka Boxa-Ljunga – w praktyce najczęściej stosowana:

2

1

2

)2(' m

m

l

l

lTTTQ

Statystyka Q’ posiada rozkład zbieżny do chi-kwadrat o m stopniach swobody.

Reguła decyzyjna: Odrzucić H0, gdy )()( 2 mmQ , gdzie )(2 m oznacza

)1(100 percentyl rozkładu chi-kwadrat o m stopniach swobody. Większość pakietów statystycznych

daje wartość p dla Q(m). Reguła decyzyjna: odrzucić hipotezę zerową, jeżeli wartość p jest mniejsza lub równa

założonemu poziomowi istotności α.

Zasada generalna doboru liczby opóźnień m: )ln(Tm .

Przyczyny autokorelacji szeregów finansowych?

Występowanie istotnej statystycznie autokorelacji nie oznacza zawsze nieefektywności rynku.

Przykład 1:

OxMetrics: G@rch – Other models – Descriptive statistics – Box-Pierce on raw series: (nie ma statystyki Ljunga-Boxa!)

Dzienne zwroty dla WIG20 02.01.1996-30.03.2007

Zwroty proste:

Q( 5) = 10.355 [0.066]; Q( 10) = 28.183 [0.002]

Q( 20) = 44.234 [0.001]; Q( 50) = 92.105 [0.000]

Zwroty logarytmiczne:

Page 4: EF Wyklad2 ARMAs

Q( 1) = 0.056 [0.812]; Q( 2) = 7.461 [0.024]

Q( 5) = 10.797 [0.055]; Q( 10) = 29.244 [0.001]

Dzienne zwroty z KGHM (2005.01.02-2010.04.30)

Q-Statistics on Raw data

Q( 5) = 11.2960 [0.0458178]*

Q( 10) = 17.9458 [0.0558852]

Q( 20) = 29.6805 [0.0751996]

Q( 50) = 77.2511 [0.0079946]**

H0 : No serial correlation ==> Accept H0 when prob. is High [Q < Chisq(lag)]

Q-Statistics on Squared data

Q( 5) = 207.432 [0.0000000]**

Q( 10) = 370.373 [0.0000000]**

Q( 20) = 632.870 [0.0000000]**

Q( 50) = 886.812 [0.0000000]**

Efekt ARCH:

ARCH 1-2 test: F(2,1332) = 58.802 [0.0000]**

ARCH 1-5 test: F(5,1326) = 30.345 [0.0000]**

ARCH 1-10 test: F(10,1316)= 19.692 [0.0000]**

Statystyka Durbina-Watsona (test DW)

T

tt

T

ttt

a

aad

1

2

2

2

1)(

Page 5: EF Wyklad2 ARMAs

Wartość statystyki d porównywana jest z 2 wielkościami – dolną i górną:

Odrzucić HO:

autokorelacja

dodatnia

Obszar niekonkluz. Nie ma podstaw do

odrzucenia HO

Obszar

niekonkluzywn.

Odrzucić HO:

autokorelacja.

ujemna

0 dD dG 4-dG 4-dD 4

Statystyki DW nie można stosować:

W odniesieniu do reszt modeli z opóźnioną zmienną objaśnianą

W odniesieniu do reszt modeli regresji, w których zmienna objaśniana jest zmienną losową

Przykładowa hipoteza alternatywna:

),0(~ 2

1 IIDaa

tttt

Będziemy rozpatrywać procesy w momencie t.

Dostępne dane: 1121 }...,,,{ tt Frrr

Zwrot = część prognozowana (w oparciu o Ft-1) + część nieprognozowalna =

= funkcja elementów zawartych w Ft-1 + innowacja at .

Mając dane Ft-1,

tttt

ttt

FrE

ar

)( 1

μt – warunkowa średnia procesu rt,

at – innowacja, szok w momencie t,

εt – sekwencja zmiennych o rozkładzie iid ze średnią 0 i wariancją 1

σt – warunkowe odchylenie standardowe (zmienność).

Modelowanie szeregów czasowych jest związane z modelowaniem średniej:

→ model dla μt – równanie średniej

oraz z modelowaniem zmienności:

→ model dla σt2 – równanie zmienności

Liniowe szeregi czasowe: rt jest liniowym szeregiem czasowym, jeżeli

Część prognozowalna jest liniową funkcją Ft-1

Innowacje {at} są niezależne i mają jednakowy rozkład (IID) W sensie matematycznym oznacza to następujący zapis:

0iitit ar

gdzie μt jest stałą, ψ0 = 1, {at} jest sekwencją IID o średniej 0 i wariancji 1.

at jest określany jako szok (innowacja) w momencie t

ψi – jest odpowiedzią na impuls rt.

Jeżeli szereg jest kowariancyjnie stacjonarny, to:

)( trE

1

22)var(i

iatr

Autokowariancja:

0

2),cov(j

ljjalttl rr

Page 6: EF Wyklad2 ARMAs

Jednowymiarowe liniowe szeregi czasowe:

Modele autoregresyjne (AR)

Modele średniej ruchomej (MA)

Autoregresyjne modele średniej ruchomej ARMA

Modele sezonowości

Modele ARIMA, ARFIMA

Modele regresji dla szeregów czasowych (kointegracja)

Dane kwartalne dla PKB: 1 kw 1996 – 4 kw 2006.

Estymacja modelu o postaci: tttt arrr 2211

Coefficient Std.Error t-value t-prob

AR-1 1.32 0.14 9.34 0.00

AR-2 -0.49 0.14 -3.47 0.00

Constant 4.16 0.78 5.36 0.00

91.049.032.116.4 21 atttt arrr

! at to biały szum iid o wariancji = 2

a .

Normality Test: Chi^2(2) = 0.554 [0.7581]

Portmanteau (6): Chi^2(4) = 6.396 [0.1715]

Nie ma autokorelacji w resztach modelu. Reszty mają rozkład normalny.

Estymacja modelu o postaci: tttt aaar 2211

Coefficient Std.Error t-value t-prob

MA-1 1.37 0.13 10.60 0.00

MA-2 0.43 0.12 3.62 0.00

Constant 4.17 0.44 9.58 0.00

04.143.037.117.4 21 atttt aaar

Normality test: Chi^2(2) = 1.054 [0.5904]

Page 7: EF Wyklad2 ARMAs

Portmanteau(6) Chi^2(3) = 5.744 [0.1248]

Nie ma autokorelacji w resztach modelu. Reszty mają rozkład normalny.

Naruszenie warunków błądzenia losowego nie jest równoznaczne z naruszeniem słabej formy hipotezy rynku

efektywnego, dla której błądzenie losowe nie jest warunkiem koniecznym, ale wystarczającym. Decydująca jest

faktyczna możliwość „pokonania” rynku.

Przykłady: funkcja autokorelacji dla różnych instrumentów (indeks, akcje, kursy walutowe, zwroty z

instrumentów) i różnych częstości obserwacji.

Wartość indeksu WIG20, funkcja autokorelacji dla indeksu, zwroty z WIG20 i funkcja autokorelacji (dzienne

stopy zwrotu 2000-2008.10).

Page 8: EF Wyklad2 ARMAs

Funkcja autokorelacji dla dziennych stóp zwrotu z PKN Orlen (99.11-07.03)

Kurs USD/PLN i przyrosty logarytmiczne kursu w okresie 2000-2008.10.03. Funkcja autokorelacji dla przyrostów logarytmicznych:

Page 9: EF Wyklad2 ARMAs

Funkcje autokorelacji i autokorelacji cząstkowej dla PROKOM, PKOBP, PPWK, PROCHEM (cały okres

notowań do 30.03.2007).

Poniżej funkcja autokorelacji dla zwrotów bezwzględnych:

wartość bezwzględna zwrotów i kwadrat zwrotów PKO

wartość bezwzględna zwrotów i kwadrat zwrotów PROKOM.

Page 10: EF Wyklad2 ARMAs

Wykres ACF i PACF dla miesięcznej inflacji i logarytmicznych przyrostów inflacji (1993-2007).

Page 11: EF Wyklad2 ARMAs

Wykres ACF i PACF dla kwartalnych danych PKB i przyrostów PKB (1996-2007).

WIBOR 1M (dane dzienne):

Wykresy: WIBOR 1M (1), funkcja autokorelacji dla WIBOR1M (2), przyrosty D1M (3), funkcja

autokorelacji dla przyrostów (4).

MWIG40 – dane 5 minutowe, 86 notowań w ciągu dnia:

Page 12: EF Wyklad2 ARMAs

1: MWIG40, ACF dla wartości bezwzględnych zwrotów

Wartości bezwzględne zwrotów, ACF: proszę zwrócić uwagę na przebieg funkcji autokorelacji – w danych są

braki.

Weryfikacja słabej hipotezy rynku efektywnego:

Stosowane testy

1. Autokorelacji stóp zwrotu

2. Losowości stóp zwrotu (testy serii np. Wald-Wolfowitz, testy znaków)

Page 13: EF Wyklad2 ARMAs

3. Normalności rozkładu (Jarque-Bera)

Weryfikacja średniej hipotezy rynku efektywnego:

Efektywność rynków a efekty kalendarzowe – anomalie:

Efekt miesiąca w roku

o Stopy zwrotu w styczniu są przeciętnie wyższe niż w innych miesiącach

o Efekt dotyczy spółek o mniejszej kapitalizacji

o Spowodowany wyprzedażą w grudniu akcji, które przynoszą straty i odkupywaniu ich w

styczniu

Rozkład stóp zwrotu w ciągu miesiąca – w pierwszej połowie wyższe zwroty

Efekt dnia w tygodniu – poniedziałkowe zwroty są niższe niż w pozostałych dniach tygodnia

Efekt godziny w dniu – niższe stopy zwrotu w pierwszej godzinie sesji w poniedziałek i wyższe w

pozostałe dni oraz wyższe zwroty w ciągu ostatnich 15 minut sesji we wszystkich dniach w tygodniu

Testowanie efektów sezonowych: test na równość dwóch średnich stóp zwrotu.

)()(:

)()(:

211

210

REREH

REREH

Statystyka Z ma rozkład normalny:

2

2

2

1

2

1

21

nn

rrz

Np.: w badaniach efektu dnia w tygodniu porównuje się zwroty w poszczególnych parach dni (np. zwroty

poniedziałkowe i zwroty wtorkowe).

Operator opóźnień – stosowany w celu uproszczenia zapisu i oznaczany jako L albo B). Definiujemy go

następująco:

jtt

j XXL

dla każdego j

Zatem: 1

1

21

2

1 ,)(,

tttttttt rrLrLrLrLrLrLr

L lub B służy do oznaczania wartości przesuniętych w czasie: Lrt jest wartością r w momencie t – 1.

Page 14: EF Wyklad2 ARMAs

ZALEŻNOŚCI LINIOWE W SZEREGACH ZWROTÓW Z INSTRUMENTÓW FINANSOWYCH

– MODELE ARMA

1 Proces autoregresyjny (AR).

Jeżeli zwroty z instrumentu wykazują statystycznie istotną autokorelację rzędu 1, oznacza to, że opóźniony

zwrot rt-1 może być użyty w prognozowaniu rt.

Postać modelu AR(1):

ttt arr 110

at – innowacja albo szok, zmienna losowa IID o średniej 0 i zdefiniowanym rozkładzie (np. at jest białym

szumem);

Biały szum: E(at) = 0, var(at)=2

a , cov(at,at-s) = γs.

2. Stacjonarność: dla szeregu stacjonarnego wpływ szoku at-i na zwrot rt zanika wraz ze wzrostem i. Warunkiem

koniecznym procesu stacjonarnego AR(1) jest 11 . Dlaczego?

Przy założeniu, że model jest kowariancyjnie stacjonarny:

sstttt rrrrE ),cov(,)var(,)( 0 , gdzie μ i γ0 to stałe, a γs jest funkcją opóźnienia s,

a nie czasu t.

1101)( ttt rrrE bo 0)( t

aE

3. Średnia procesu

Z założenia stacjonarności wynika, że )()( 1tt rErE . Stąd:

10

lub

1

0

1)(

trE .

Na tej podstawie można stwierdzić, że:

Średnia szeregu czasowego rt istnieje, jeżeli 11 .

Średnia szeregu rt jest równa zero, wtedy i tylko wtedy, gdy 00 .

4. Wariancja procesu

2

1

2

1 )var()var( att rr ponieważ )var()var( 1 tt rr

11

)var( 2

12

1

2

atr

Warunek stacjonarności dla modelu AR(1):

111 albo 1

1 . Tylko dla takich wartości

1 wartość średnia i wariancja rt są skończone.

5. Funkcja autokorelacji dla AR(1)

....,, 2

1211

s

s 1 dla 0s .

Oznacza to, że ACF dla szeregu AR(1) słabo stacjonarnego zanika wykładniczo w tempie 1 i wartością

początkową ρ0 = 1. Dla dodatnich 1 wykres zanika wykładniczo, dla ujemnych – na zmianę uzyskując wartości

dodatnie i ujemne. 6. Prognoza (proces AR(p) ma pamięć nieskończoną):

na 1 okres w momencie n: nn rr 10)1(ˆ

o błąd prognozy: 11 )1(ˆ)1( nnnn arre

Page 15: EF Wyklad2 ARMAs

faktyczny zwrot prognoza szok w momencie n+1

o wariancja błędu prognozy 2

1)var())1(var( ann ae

na 2 okresy w momencie n: )1(ˆ)2(ˆ 10 nn rr

o błąd prognozy: 1122 )2(ˆ)2( nnnnn aarre

o wariancja błędu prognozy 22

1 )1var())2(var( ane

Błąd prognozy zwiększa się wraz ze wzrostem horyzontu prognozy.

Prognoza dla l okresów:

lnplnplnln arrr ...110

Dla l → ∞, )()(ˆ tn rElr – długookresowa prognoza punktowa zmierza do wartości oczekiwanej (ang.

mean reversion).

7. Inna forma zapisu:

tt arL 01 )1(

Model AR(2)

1. tttt arrr 22110

Forma skrócona?

tt arLL 0

2

21 )1(

2. Warunek stacjonarności: pierwiastki wieloma stopnia drugiego

Równanie charakterystyczne: 01 2

21 xx , dla którego rozwiązaniami są:

2

2

2

11

2

4

x .

Page 16: EF Wyklad2 ARMAs

Warunek stacjonarności dla AR(2): wartość bezwzględna odwrotności obu rozwiązań wielomianu

(=pierwiastków charakterystycznych) jest mniejsza niż 1. Pod takim warunkiem funkcja ACF równania

0,2211

ssss

dąży do zera wraz ze wzrostem opóźnienia s.

3. Średnia procesu

11

)(21

21

0

tyE

02211

ssss

4. Funkcja autokorelacji:

2,

,1

,1

2211

2

1

1

0

s

sss

ACF stacjonarnego AR(2) spełnia następujące równanie:

1

2

210)1(

ss

s

L

LL

Wyrażeniu w nawiasie odpowiada wielomian stopnia drugiego:

5. Prognoza – podobnie jak w AR(1).

Model AR(p)

Jeżeli yt zależy od większej ilości własnych opóźnień, zapisujemy to jako proces autoregresyjny rzędu p AR(p):

Npayyytptptt

....110

Wartość oczekiwana procesu:

p

tyE

...1)(

1

0 , dla 0...1

1

Funkcja wielomianu (równanie charakterystyczne):

0...1 2

21 p

pxxx

Warunkiem testowania stacjonarności AR(p) jest to, aby rozwiązania równania charakterystycznego modelu

(=stowarzyszonego z modelem równania wielomianowego) leżały poza okręgiem o promieniu 1.

2 postaci wielomianu (z warunkiem stacjonarności procesu):

0...1 2

21 p

pxxx moduły rozwiązań powinny być > 1

0...1

2

2

1

1

pp

ppp zzzz moduły rozwiązań powinny być < 1

00)...1( 2

21 sdlaLLL

s

p

p

Proces AR(p) jest stacjonarny, jeżeli funkcja autokorelacji maleje wraz ze zwiększeniem długości opóźnień.

Zapis modelu AR(p)

t

p

it

i

it

p

ititit

arLr

arr

1

1

Page 17: EF Wyklad2 ARMAs

)...1()(

)(

2

21

p

p

tt

LLLL

arL

ptpttt

t

p

pt

rrrr

rLLLrL

...

)...1()(

2211

2

21

Przykład 1:

Czy następujący model jest stacjonarny?

tttayy

1

Należy zapisać yt-1 uwzględniając operator opóźnień:

L

ayaLy

aLyy

aLyy

t

ttt

ttt

ttt

1)1(

Równanie charakterystyczne 01 x ma pierwiastek charakterystyczny x = 1 (na okręgu). Powyższy

proces jest niestacjonarny (jest to proces błądzenia losowego).

Identyfikacja procesu AR(p)

Funkcja autokorelacji cząstkowej

Kryteria informacyjne

1.1 Funkcja autokorelacji cząstkowej PACF (partial autocorrelation function)

mierzy korelację między obserwacją t a obserwacją t-k po usunięciu efektu korelacji z obserwacjami t-k+1, t-

k+2 itd.

W praktyce współczynniki autokorelacji cząstkowej są współczynnikami korelacji między błędami predykcji przy rozszerzaniu modelu o kolejne opóźnienia (czyli zmianie s od 0 do p). Można je traktować jako

współczynniki regresji w równaniu yt względem stałej i opóźnionych wartości yt:

ttttt

tttt

ttt

eyyyy

eyyy

eyy

333,323,213,13,0

222,212,12,0

111,11,0

Estymator φ1,1 z pierwszego równania jest wartością funkcji autokorelacji cząstkowej z próby dla opóźnienia 1,

φ2,2 dla opóźnienia 2, φ3,3 dla opóźnienia 3 itd. Przy opóźnieniu o 1 okres ACF i PACF są równe (nie ma bezpośrednich efektów do usunięcia).

W przypadku procesu AR(p) występuje bezpośrednie powiązanie między yt i yt-s dla s ≤ p, ale nie ma

bezpośredniego powiązania dla s > p.

Np. Dla modelu AR(3)

ttttt arrrr 3322110

występuje bezpośrednie powiązanie między rt i rt-3, ale nie między rt a rt-s dla

s > 3. Dlatego PACF:

dla p > s będzie osiągał wartości niezerowe,

dla s > p będzie zerem→ dla procesu AR(p) PACF „ucina” się w opóźnieniu p.

Page 18: EF Wyklad2 ARMAs

1.2 Kryteria informacyjne

Wybór konkretnej postaci modelu dokonuje się również w oparciu o kryteria informacyjne, wykorzystujące

funkcję wiarygodności, L. Dana jest próba:

},...,{ 1 Trr . Wówczas: );,...,()( 1 TrrfL , gdzie f jest gęstością łącznego rozkładu zmiennych

},...,{ 1 Trr , a θ jest wektorem parametrów określających ten rozkład.

Kryteria informacyjne zawierają 2 elementy: sumę kwadratów odchyleń i pewną formę „kary” za utratę stopni

swobody (oba działają w przeciwnych kierunkach).

A. Akaike AIC [1974]:

T

k

T

LAIC

2)ˆ(ln2

estymator MNW dla wariancji reszt

k oznacza liczbę szacowanych parametrów, T liczbę obserwacji, a ln L(θ) jest wartością funkcji wiarygodności,

wyliczoną w oparciu o oszacowania wektora parametrów θ, który ją maksymalizuje;

Dobór modelu w oparciu o minimalną wartość kryterium informacyjnego AIC.

B. Schwarz SBIC (bayesowskie kryterium informacyjne) [1978]

)ln()ˆ(ln2

TT

k

T

LSBIC

C. Hannan-Quinn (HQIC)

)][ln(ln2)ˆ(ln2

TT

k

T

LHQIC

Przykładowe procesy AR(p) (szeregi generowane przy użyciu Excela)

Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu AR(1) ttt

ayy 1

9.0

Page 19: EF Wyklad2 ARMAs

Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu AR(1) ttt

ayy 1

9.0

Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu AR(1) ttt

ayy 1

5.0 i

tttayy

15.0 .

Page 20: EF Wyklad2 ARMAs

Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu AR(1) ttt

ayy 1

1.0 .

Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu błądzenia losowego

tttayy

1.

2 Proces średniej ruchomej (model ze średnią ruchomą) MA

MA(1):

1. Postać: 11 ttt aar

Page 21: EF Wyklad2 ARMAs

2. Stacjonarność: zawsze stacjonarny

3. Wartość oczekiwana: )( trE

4. Wariancja: 22

1

22

1

2

11 )1()var()var( aaattt aar

5. Autokowariancja:

Dla opóźnienia 1: 2

1),cov( att rr

Dla opóźnienia l: 0),cov( ltt rr dla l > 1

6. Autokorelacja: 0,1 21

l

dla l > 1.

MA(q) jest modelem o skończonej pamięci – „nie pamięta” co stało się więcej niż q okresów temu.

7. Prognoza:

nnn aar 11

1 krok naprzód: nn ar )1(ˆ

błąd prognozy: 11 )1(ˆ)1( nnnn arre , wariancja: 2

a

prognoza na wiele okresów: )(ˆ lrn dla l > 1.

Dla modelu MA(1) prognoza na kolejne okresy, poza 1, jest równa średniej procesu (model ma pamięć 1

okresu).

1122

2

1122

)2(ˆ)2(

)()2(ˆ

nnnnn

nnn

nnn

aarre

FrEr

aar

Błąd prognozy wielookresowej: 1)( lnlnn aale

Wariancja błędu prognozy wielookresowej: )var()1( 22

ta r

8. Odwracalność procesu. Zwroty rt są liniową funkcją at i poprzednich obserwacji. Dla modelu

odwracalnego, zależność między rt a rt-l jest zbieżna do zera wraz ze wzrostem l. Warunkiem

odwracalności jest 1 . Odwracalność procesu MA jest odpowiednikiem stacjonarności procesu

AR.

MA(2)

1. Postać: 2211 tttt aaar

2. Stacjonarność: zawsze stacjonarny

3. Wartość oczekiwana: )( trE

4. Wariancja: 22

2

2

1

22

2

22

1

2

2211

)1(

)var()var(

a

aaatttt aaar

5. ACF: 0,02 l dla l > 2

6. Prognoza zmierza do średniej po 2 okresach

MA(q):

Page 22: EF Wyklad2 ARMAs

qs

qs

r

asqqsss

s

aqt

0

)...

)...1()var(

2

2211

222

2

2

10

Proces MA(q) ma stałą (niezależną w czasie) średnią, stałą wariancję i autokowariancję, która może być różna

od zera do opóźnienia q, dla opóźnień większych niż q jest zawsze równa zero. Dlatego też proces MA(q) jest

modelem skończonej pamięci (ograniczonej do s opóźnień).

Budowa modelu MA:

Specyfikacja – przy użyciu ACF dla próby: rząd procesu jest równy liczbie opóźnień, dla których

obserwujemy statystycznie istotne korelacje.

Stała w modelu – zależy od średniej w próbie

Estymacja MA(q)

o Warunkowa metoda wiarygodności – zakłada, że początkowe szoki (t ≤ 0) są zerowe, stąd:

0ta , 11 ra oraz 1122 ara .

o Dokładna (exact) metoda wiarygodności – początkowe szoki są dodatkowymi parametrami wymagającymi oszacowania (bardziej wymagająca)

Weryfikacja modelu – sprawdzenie, na ile model opisuje dynamikę szeregu oraz czy reszty są białym

szumem.

Zasady identyfikacji modeli AR(p) i MA(q):

Jeżeli proces jest typu AR(p), to funkcja ACF maleje wykładniczo lub jest sinusoidą o zmniejszającej

się amplitudzie wahań, natomiast funkcja PACF urywa się po odstępie p (jest równa zero)

Jeżeli proces jest typu MA(q), to ACF urywa się po odstępie q, a PACF maleje wykładniczo lub jest

sinusoidą o zmniejszającej się amplitudzie wahań.

ACF dla AR ma ten sam kształt, co PACF dla MA i na odwrót.

Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu MA(1) ttt

aay 1

5.0

Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu MA(1) ttt

aay 1

5.0

Page 23: EF Wyklad2 ARMAs

Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu MA(2)

ttttaaay

2125.05.0

3 Modele stacjonarnych procesów stochastycznych – ARMA

ARMA(1,1)

1. Postać: tt aLrL )1()1( 101

i. 11011 tttt aarr

at – jest białym szumem, zał.:11 .

2. Stacjonarność: jak w AR 3. Odwracalność: jak w MA

4. Wartość średnia: jak w AR

)()()()( 11011 tttt aEaErErE

Ponieważ E(ai)=0 dla wszystkich i

1

0

1)(

trE

5. Wariancja: 2

1

22

111

1

)21()var(

a

tr

6. Autokorelacja: 11 kk dla k > 1

Ale 1

0

2

111

a

To jest różnica między AR i ARMA.

Graficznie, ACF modelu ARMA(1,1) zachowuje się bardzo podobnie, jak w modelu AR(1), z tym że zanikanie

wykładnicze zaczyna się od opóźnienia 2. ACF nie zanika po s opóźnieniach.

Page 24: EF Wyklad2 ARMAs

PACF także nie zanika – zachowuje się bardziej jak MA(1).

Uogólniona ARMA(p,q)

p

i

q

iitititit aarr

1 10

stdlaaaEaEaEstatt

0)(,)(,0)( 22

Obecna wartość szeregu r zależy liniowo od poprzednich wartości r oraz połączenia obecnych i poprzednich

wartości składnika losowego (innowacji).

t

q

qt

p

p aLLrLL )...1()...1( 101

tt aLrL )()( 0

Podobnie jak modelu AR, wielomian autoregresyjny „wprowadza” równanie charakterystyczne modelu ARMA.

Jeżeli wszystkie pierwiastki charakterystyczne równania są mniejsze co do wartości bezwzględnej od 1,

wówczas model ARMA jest kowariancyjnie stacjonarny. W takim przypadku bezwarunkowa wartość

oczekiwana modelu wynosi:

)...1/()( 10 ptrE

Cechy ARMA są połączeniem cech procesu AR i MA. W tym kontekście PACF jest szczególnie użyteczna dla rozróżnienia między procesem AR(p) i ARMA(p,q) – AR(p) ma wykładniczo malejącą funkcję ACF i PACF

osiągającą wartość zera po p opóźnieniach, podczas gdy dla ARMA(p,q) obie funkcje, ACF i PACF, maleją

geometrycznie.

ARMA: zanikające wykładniczo AF i PACF (tłumione sinusoidy)

Budowa modelu ARMA – podejście Boxa-Jenkinsa

Etapy:

1. Wyznaczenie przyrostów (różnicowanie) wyjściowego szeregu w celu uzyskania szeregu

stacjonarnego

Decyzja co do stacjonarności szeregu – na podstawie testów pierwiastka jednostkowego lub ACF

(dla szeregów stacjonarnych korelogram wygasa wraz ze wzrostem liczby opóźnień). 2. Specyfikacja wstępnego modelu

Analiza korelogramu w celu ustalenia odpowiedniego rzędu składowych AR i MA (procedura ma

charakter arbitralny)

3. Estymacja modelu

4. Weryfikacja (jeżeli model nie spełnia warunków - wracamy do kroku 2)

a. „rozciąganie” w czasie

b. obserwacja reszt w modelu (testy autokorelacji – najlepiej LM)

5. Zastosowanie modelu do celów predykcyjnych

Prognozowanie przy użyciu modelu ARMA

Prognoza na 1 okres w przód:

11

11

1101

)1(ˆ)1(

)()1(ˆ

nnnn

q

iini

p

iininnn

arre

arFrEr

Prognoza na s okresów wprzód:

q

ini

p

ininlnn ilailrFrElr

110 )()(ˆ)()(ˆ

gdzie 0,)(ˆ ildlarilr iln

00)( ildlailan i 0)( ildlaaila ilnn

Błąd prognozy:

)(ˆ)( lrrse nlnh

Page 25: EF Wyklad2 ARMAs

4 Określenie trafności prognozy

Średni błąd kwadratowy (mean square error) – szczególnie użyteczna w sytuacjach, gdzie duże błędy

prognoz są częstsze niż małe błędy: pomiar jest bardzo wrażliwy na obserwacje nietypowe;

T

Ttstst rr

TTMSE

1

2,

1

)ˆ()1(

1

T – wielkość próby (wszystkich r)

T1 – pierwsza prognoza

Pierwiastek z średniego błędu kwadratowego (root mean square error)

5.0

1

2, ])ˆ(

1[

H

Ttstst rr

HRMSE

H = horyzont prognozy

Średni błąd bezwzględny (mean absolute error) – mniejsza waga dla obserwacji nietypowych

(outliers)

T

Ttstst rr

TTMAE

1

,1

ˆ)1(

1

Skorygowany (symetryczny) średni błąd bezwzględny

T

Tt stst

stst

rr

rr

TTAMAPE

1 ,

,

1 ˆ

ˆ

)1(

100

Błędy prognoz są podzielone przy dwukrotność średnich wartości faktycznych i prognozowanych; AMAPE

osiąga tą samą wartość zarówno, jeżeli prognoza wynosi 0,5, a wartość obserwowana 0,3, jak i gdy wartość

obserwowana wynosi 0,5, a prognoza 0,3.

Średni błąd MAPE (mean absolute percentage error)– interpretowany jako błąd procentowy

T

Tt st

stst

r

rr

TTMAPE

1

,

1

ˆ

)1(

100

Statystyka U – Theila

T

Tt

st

stst

st

stst

r

brr

r

rr

U

1 2,

2,

(

(

gdzie rbts jest prognozą z modelu odniesienia (np.z prognozowania naiwnego lub błądzenia losowego). Wartość

statystyki: U = 1 oznacza, że rozpatrywany model i model odniesienia są równie (nie)dobre,

U < 1 oznacza, że weryfikowany model jest lepszy od modelu odniesienia

U > 1 ……………………………………….gorszy ………………………

Ocena dopasowania modelu:

1. Na ile model opisuje dynamikę zwrotów

2. Weryfikacja reszt z modelu – ciąg reszt powinien być realizacją ścisłego białego szumu (zależności

liniowe i nieliniowe)