EF Wyklad2 ARMAs
-
Upload
pawel-stankiewicz -
Category
Documents
-
view
95 -
download
0
Transcript of EF Wyklad2 ARMAs
Zależności liniowe w szeregach stóp zwrotu instrumentów finansowych
Szeregi finansowe charakteryzują się występowaniem zależności nieliniowych. Jednak często badamy, czy
pomiędzy kolejnymi obserwacjami szeregu nie występują zależności liniowe.
Proces stochastyczny: funkcja losowa zmiennych losowych X oraz nielosowego argumentu oznaczającego czas.
Traktując zwroty z instrumentu finansowego (logarytmy zwrotów) jako zbiór zmiennych losowych w czasie
otrzymujemy szereg czasowy. Szereg czasowy jest realizacją procesu stochastycznego.
Teoria liniowych szeregów czasowych obejmuje: stacjonarność, zależność w sensie dynamicznym, funkcję
autokorelacji, modelowanie szeregu i prognozowanie.
Szczególną rolę informacyjną w budowaniu modeli ma korelacja zmiennej i jej wartości przeszłych.
Stacjonarność:
Ścisła – rozkład wartości szeregu nie zależy od momentu w czasie (pozostaje taki sam w miarę upływu czasu);
wszystkie momenty (średnia, wariancja i momenty wyższego rzędu) są stałe i niezależne od czasu t;
Słaba – 2 pierwsze momenty są niezależne od czasu
Csyy
yyD
yE
sstt
tt
t
))(cov(
))((
)(22
Proces słabo stacjonarny ma stałą średnią, stałą i skończoną wariancję i stałą strukturę autokowariancji zależną
wyłącznie od opóźnienia s.
Alternatywne nazwy słabo stacjonarnych szeregów czasowych to: szeregi stacjonarne w szerszym sensie,
stacjonarne kowariancyjnie lub stacjonarne drugiego rzędu. Co oznacza słaba stacjonarność szeregu:
W przeszłości – wykres zwrotów oscyluje wokół stałej wartości, oscylacje mają ograniczony
(skończony) zasięg;
W przyszłości – 2 pierwsze momenty danych historycznych i prognozowanych są takie same;
Ścisły biały szum
Szereg finansowy jest nazywany białym szumem, jeśli ciąg rt jest ciągiem niezależnych zmiennych losowych o
tym samym rozkładzie (independently and identically distibuted iid) ze skończoną średnią i wariancją.
Biały szum gaussowski rt jest to stacjonarny proces o wartości oczekiwanej równej zero, skończonej wariancji i
rozkładzie normalnym (proces czysto losowy - nie może być prognozowany):
2)var(0)( tt rrE
stdla
stdlast
0
2
Jeżeli zmienne rt stanowią szereg kowariancyjnie stacjonarny i zerowych wartościach funkcji autokorelacji dla wszystkich opóźnień, to szereg nazywa się białym szumem.
Autokowariancja rzędu k
Szczególną rolę informacyjną w budowaniu modeli ma korelacja zmiennej i jej wartości przeszłych. Dla szeregu
stacjonarnego wpływ szoku w momencie t – l na zwrot rt zanika wraz ze wzrostem l. Niestacjonarność powoduje
m.in., że wcześniejsze wartości błędu w modelu będą miały niemalejący wpływ na obecną wartość rt.
)])([(),cov( lttlttl rrErr
Autokowariancja dla próby:
T
rrrrrr
T
tltt
lttl
1
))((),cov(
Funkcja autokowariancji (kowariancji l-tego rzędu) ma 2 własności:
lttrrrr
rrrr
r
ltttlt
tltlttll
t
1
)()(
0
),cov(),cov(
),cov(),cov(
)var(
11
Seryjna korelacja (autokorelacja):
)var(
),cov(
)var()var(
)cov( ,
t
ltt
ltt
ltt
lr
rr
rr
rr
Oczywiście: 10
Występowanie seryjnej korelacji oznacza, że zwroty są przewidywalne i wskazuje na potencjalną
nieefektywność rynku.
Funkcja autokorelacji dla próby:
T
tt
lT
tltt
l
rr
rrrr
1
2
1
)(
))((
Istnienie dostatecznie silnej autokorelacji szeregów stóp zwrotu pozwoliłoby na prognozowanie z dużym
prawdopodobieństwem i dokładnością stóp zwrotu w przyszłym okresie.
Istnieje wiele sposobów badania autokorelacji stóp zwrotu (funkcje autokorelacji, autokorelacji cząstkowej, testy
statystyczne);
Korelacja i funkcja autokorelacji (ACF)
)var()var(
)var(
),cov(
)var()(var(
),cov(
0
stt
l
t
ltt
ltt
ltts
xx
x
xx
xx
xx
T
ttT
tt
lT
tltt
l rrrr
rrrr
1
1
2
1 ,)(
))((
Współczynnik ρ mierzy siłę liniowej zależności pomiędzy rt i Y.
Własności współczynnika korelacji: 11 oraz xyyx ,,
.
2 zmienne losowe są nieskorelowane jeżeli 0,
yx . Dodatkowo, jeżeli obie zmienne są
normalnymi zmiennymi losowymi, wówczas 0,
yx tylko wówczas, gdy zmienne te są
niezależne.
Autokorelacja pierwszego rzędu:
T
tt
T
ttt
xx
xxxx
1
2
21
1
)(
))((̂
Dla zmiennej losowej rt o własności iid (niezależny jednakowy rozkład) i spełniającej warunek )( 2
trE ,
1 ma rozkład asymptotycznie normalny ze średnią 0 i wariancją 1/T. Własność ta wykorzystywana jest w
weryfikacji hipotezy:
0:10H
0:11H
Statystyka t: 1
1 ˆ/1
TT
t . Rozkład )1,0(~N .
Reguła decyzyjna: Odrzucić H0, gdy 2/Zt lub wartość p jest mniejsza niż założone α.
Autokorelacja s-tego rzędu:
10)(
))((ˆ
1
2
1
Tsxx
xxxx
T
tt
T
ststt
s
Testowanie autokorelacji dla większej liczby opóźnień:
Tt
s
ii
s
/)ˆ21(
ˆ1
1
2
W małych próbach estymator współczynnika korelacji jest obciążony. Dla prób o dużej liczebności obciążenie estymatora współczynnika korelacji nie jest poważne.
Test Portmanteau – służy do weryfikowania korelacji dla kilku opóźnień jednocześnie:
Statystyka Boxa-Pierce’a
m
ss
TmQ1
2ˆ)(
T – wielkość próby
m – maksymalne opóźnienie
},...,1{0:
0:
1
10
miH
H
i
m
rozkład zbliżony do rozkładu chi-kwadrat o m stopniach swobody.
Statystyka Boxa-Ljunga – w praktyce najczęściej stosowana:
2
1
2
~ˆ
)2(' m
m
l
l
lTTTQ
Statystyka Q’ posiada rozkład zbieżny do chi-kwadrat o m stopniach swobody.
Reguła decyzyjna: Odrzucić H0, gdy )()( 2 mmQ , gdzie )(2 m oznacza
)1(100 percentyl rozkładu chi-kwadrat o m stopniach swobody. Większość pakietów statystycznych
daje wartość p dla Q(m). Reguła decyzyjna: odrzucić hipotezę zerową, jeżeli wartość p jest mniejsza lub równa
założonemu poziomowi istotności α.
Zasada generalna doboru liczby opóźnień m: )ln(Tm .
Przyczyny autokorelacji szeregów finansowych?
Występowanie istotnej statystycznie autokorelacji nie oznacza zawsze nieefektywności rynku.
Przykład 1:
OxMetrics: G@rch – Other models – Descriptive statistics – Box-Pierce on raw series: (nie ma statystyki Ljunga-Boxa!)
Dzienne zwroty dla WIG20 02.01.1996-30.03.2007
Zwroty proste:
Q( 5) = 10.355 [0.066]; Q( 10) = 28.183 [0.002]
Q( 20) = 44.234 [0.001]; Q( 50) = 92.105 [0.000]
Zwroty logarytmiczne:
Q( 1) = 0.056 [0.812]; Q( 2) = 7.461 [0.024]
Q( 5) = 10.797 [0.055]; Q( 10) = 29.244 [0.001]
Dzienne zwroty z KGHM (2005.01.02-2010.04.30)
Q-Statistics on Raw data
Q( 5) = 11.2960 [0.0458178]*
Q( 10) = 17.9458 [0.0558852]
Q( 20) = 29.6805 [0.0751996]
Q( 50) = 77.2511 [0.0079946]**
H0 : No serial correlation ==> Accept H0 when prob. is High [Q < Chisq(lag)]
Q-Statistics on Squared data
Q( 5) = 207.432 [0.0000000]**
Q( 10) = 370.373 [0.0000000]**
Q( 20) = 632.870 [0.0000000]**
Q( 50) = 886.812 [0.0000000]**
Efekt ARCH:
ARCH 1-2 test: F(2,1332) = 58.802 [0.0000]**
ARCH 1-5 test: F(5,1326) = 30.345 [0.0000]**
ARCH 1-10 test: F(10,1316)= 19.692 [0.0000]**
Statystyka Durbina-Watsona (test DW)
T
tt
T
ttt
a
aad
1
2
2
2
1)(
Wartość statystyki d porównywana jest z 2 wielkościami – dolną i górną:
Odrzucić HO:
autokorelacja
dodatnia
Obszar niekonkluz. Nie ma podstaw do
odrzucenia HO
Obszar
niekonkluzywn.
Odrzucić HO:
autokorelacja.
ujemna
0 dD dG 4-dG 4-dD 4
Statystyki DW nie można stosować:
W odniesieniu do reszt modeli z opóźnioną zmienną objaśnianą
W odniesieniu do reszt modeli regresji, w których zmienna objaśniana jest zmienną losową
Przykładowa hipoteza alternatywna:
),0(~ 2
1 IIDaa
tttt
Będziemy rozpatrywać procesy w momencie t.
Dostępne dane: 1121 }...,,,{ tt Frrr
Zwrot = część prognozowana (w oparciu o Ft-1) + część nieprognozowalna =
= funkcja elementów zawartych w Ft-1 + innowacja at .
Mając dane Ft-1,
tttt
ttt
FrE
ar
)( 1
μt – warunkowa średnia procesu rt,
at – innowacja, szok w momencie t,
εt – sekwencja zmiennych o rozkładzie iid ze średnią 0 i wariancją 1
σt – warunkowe odchylenie standardowe (zmienność).
Modelowanie szeregów czasowych jest związane z modelowaniem średniej:
→ model dla μt – równanie średniej
oraz z modelowaniem zmienności:
→ model dla σt2 – równanie zmienności
Liniowe szeregi czasowe: rt jest liniowym szeregiem czasowym, jeżeli
Część prognozowalna jest liniową funkcją Ft-1
Innowacje {at} są niezależne i mają jednakowy rozkład (IID) W sensie matematycznym oznacza to następujący zapis:
0iitit ar
gdzie μt jest stałą, ψ0 = 1, {at} jest sekwencją IID o średniej 0 i wariancji 1.
at jest określany jako szok (innowacja) w momencie t
ψi – jest odpowiedzią na impuls rt.
Jeżeli szereg jest kowariancyjnie stacjonarny, to:
)( trE
1
22)var(i
iatr
Autokowariancja:
0
2),cov(j
ljjalttl rr
Jednowymiarowe liniowe szeregi czasowe:
Modele autoregresyjne (AR)
Modele średniej ruchomej (MA)
Autoregresyjne modele średniej ruchomej ARMA
Modele sezonowości
Modele ARIMA, ARFIMA
Modele regresji dla szeregów czasowych (kointegracja)
Dane kwartalne dla PKB: 1 kw 1996 – 4 kw 2006.
Estymacja modelu o postaci: tttt arrr 2211
Coefficient Std.Error t-value t-prob
AR-1 1.32 0.14 9.34 0.00
AR-2 -0.49 0.14 -3.47 0.00
Constant 4.16 0.78 5.36 0.00
91.049.032.116.4 21 atttt arrr
! at to biały szum iid o wariancji = 2
a .
Normality Test: Chi^2(2) = 0.554 [0.7581]
Portmanteau (6): Chi^2(4) = 6.396 [0.1715]
Nie ma autokorelacji w resztach modelu. Reszty mają rozkład normalny.
Estymacja modelu o postaci: tttt aaar 2211
Coefficient Std.Error t-value t-prob
MA-1 1.37 0.13 10.60 0.00
MA-2 0.43 0.12 3.62 0.00
Constant 4.17 0.44 9.58 0.00
04.143.037.117.4 21 atttt aaar
Normality test: Chi^2(2) = 1.054 [0.5904]
Portmanteau(6) Chi^2(3) = 5.744 [0.1248]
Nie ma autokorelacji w resztach modelu. Reszty mają rozkład normalny.
Naruszenie warunków błądzenia losowego nie jest równoznaczne z naruszeniem słabej formy hipotezy rynku
efektywnego, dla której błądzenie losowe nie jest warunkiem koniecznym, ale wystarczającym. Decydująca jest
faktyczna możliwość „pokonania” rynku.
Przykłady: funkcja autokorelacji dla różnych instrumentów (indeks, akcje, kursy walutowe, zwroty z
instrumentów) i różnych częstości obserwacji.
Wartość indeksu WIG20, funkcja autokorelacji dla indeksu, zwroty z WIG20 i funkcja autokorelacji (dzienne
stopy zwrotu 2000-2008.10).
Funkcja autokorelacji dla dziennych stóp zwrotu z PKN Orlen (99.11-07.03)
Kurs USD/PLN i przyrosty logarytmiczne kursu w okresie 2000-2008.10.03. Funkcja autokorelacji dla przyrostów logarytmicznych:
Funkcje autokorelacji i autokorelacji cząstkowej dla PROKOM, PKOBP, PPWK, PROCHEM (cały okres
notowań do 30.03.2007).
Poniżej funkcja autokorelacji dla zwrotów bezwzględnych:
wartość bezwzględna zwrotów i kwadrat zwrotów PKO
wartość bezwzględna zwrotów i kwadrat zwrotów PROKOM.
Wykres ACF i PACF dla miesięcznej inflacji i logarytmicznych przyrostów inflacji (1993-2007).
Wykres ACF i PACF dla kwartalnych danych PKB i przyrostów PKB (1996-2007).
WIBOR 1M (dane dzienne):
Wykresy: WIBOR 1M (1), funkcja autokorelacji dla WIBOR1M (2), przyrosty D1M (3), funkcja
autokorelacji dla przyrostów (4).
MWIG40 – dane 5 minutowe, 86 notowań w ciągu dnia:
1: MWIG40, ACF dla wartości bezwzględnych zwrotów
Wartości bezwzględne zwrotów, ACF: proszę zwrócić uwagę na przebieg funkcji autokorelacji – w danych są
braki.
Weryfikacja słabej hipotezy rynku efektywnego:
Stosowane testy
1. Autokorelacji stóp zwrotu
2. Losowości stóp zwrotu (testy serii np. Wald-Wolfowitz, testy znaków)
3. Normalności rozkładu (Jarque-Bera)
Weryfikacja średniej hipotezy rynku efektywnego:
Efektywność rynków a efekty kalendarzowe – anomalie:
Efekt miesiąca w roku
o Stopy zwrotu w styczniu są przeciętnie wyższe niż w innych miesiącach
o Efekt dotyczy spółek o mniejszej kapitalizacji
o Spowodowany wyprzedażą w grudniu akcji, które przynoszą straty i odkupywaniu ich w
styczniu
Rozkład stóp zwrotu w ciągu miesiąca – w pierwszej połowie wyższe zwroty
Efekt dnia w tygodniu – poniedziałkowe zwroty są niższe niż w pozostałych dniach tygodnia
Efekt godziny w dniu – niższe stopy zwrotu w pierwszej godzinie sesji w poniedziałek i wyższe w
pozostałe dni oraz wyższe zwroty w ciągu ostatnich 15 minut sesji we wszystkich dniach w tygodniu
Testowanie efektów sezonowych: test na równość dwóch średnich stóp zwrotu.
)()(:
)()(:
211
210
REREH
REREH
Statystyka Z ma rozkład normalny:
2
2
2
1
2
1
21
nn
rrz
Np.: w badaniach efektu dnia w tygodniu porównuje się zwroty w poszczególnych parach dni (np. zwroty
poniedziałkowe i zwroty wtorkowe).
Operator opóźnień – stosowany w celu uproszczenia zapisu i oznaczany jako L albo B). Definiujemy go
następująco:
jtt
j XXL
dla każdego j
Zatem: 1
1
21
2
1 ,)(,
tttttttt rrLrLrLrLrLrLr
L lub B służy do oznaczania wartości przesuniętych w czasie: Lrt jest wartością r w momencie t – 1.
ZALEŻNOŚCI LINIOWE W SZEREGACH ZWROTÓW Z INSTRUMENTÓW FINANSOWYCH
– MODELE ARMA
1 Proces autoregresyjny (AR).
Jeżeli zwroty z instrumentu wykazują statystycznie istotną autokorelację rzędu 1, oznacza to, że opóźniony
zwrot rt-1 może być użyty w prognozowaniu rt.
Postać modelu AR(1):
ttt arr 110
at – innowacja albo szok, zmienna losowa IID o średniej 0 i zdefiniowanym rozkładzie (np. at jest białym
szumem);
Biały szum: E(at) = 0, var(at)=2
a , cov(at,at-s) = γs.
2. Stacjonarność: dla szeregu stacjonarnego wpływ szoku at-i na zwrot rt zanika wraz ze wzrostem i. Warunkiem
koniecznym procesu stacjonarnego AR(1) jest 11 . Dlaczego?
Przy założeniu, że model jest kowariancyjnie stacjonarny:
sstttt rrrrE ),cov(,)var(,)( 0 , gdzie μ i γ0 to stałe, a γs jest funkcją opóźnienia s,
a nie czasu t.
1101)( ttt rrrE bo 0)( t
aE
3. Średnia procesu
Z założenia stacjonarności wynika, że )()( 1tt rErE . Stąd:
10
lub
1
0
1)(
trE .
Na tej podstawie można stwierdzić, że:
Średnia szeregu czasowego rt istnieje, jeżeli 11 .
Średnia szeregu rt jest równa zero, wtedy i tylko wtedy, gdy 00 .
4. Wariancja procesu
2
1
2
1 )var()var( att rr ponieważ )var()var( 1 tt rr
11
)var( 2
12
1
2
atr
Warunek stacjonarności dla modelu AR(1):
111 albo 1
1 . Tylko dla takich wartości
1 wartość średnia i wariancja rt są skończone.
5. Funkcja autokorelacji dla AR(1)
....,, 2
1211
s
s 1 dla 0s .
Oznacza to, że ACF dla szeregu AR(1) słabo stacjonarnego zanika wykładniczo w tempie 1 i wartością
początkową ρ0 = 1. Dla dodatnich 1 wykres zanika wykładniczo, dla ujemnych – na zmianę uzyskując wartości
dodatnie i ujemne. 6. Prognoza (proces AR(p) ma pamięć nieskończoną):
na 1 okres w momencie n: nn rr 10)1(ˆ
o błąd prognozy: 11 )1(ˆ)1( nnnn arre
faktyczny zwrot prognoza szok w momencie n+1
o wariancja błędu prognozy 2
1)var())1(var( ann ae
na 2 okresy w momencie n: )1(ˆ)2(ˆ 10 nn rr
o błąd prognozy: 1122 )2(ˆ)2( nnnnn aarre
o wariancja błędu prognozy 22
1 )1var())2(var( ane
Błąd prognozy zwiększa się wraz ze wzrostem horyzontu prognozy.
Prognoza dla l okresów:
lnplnplnln arrr ...110
Dla l → ∞, )()(ˆ tn rElr – długookresowa prognoza punktowa zmierza do wartości oczekiwanej (ang.
mean reversion).
7. Inna forma zapisu:
tt arL 01 )1(
Model AR(2)
1. tttt arrr 22110
Forma skrócona?
tt arLL 0
2
21 )1(
2. Warunek stacjonarności: pierwiastki wieloma stopnia drugiego
Równanie charakterystyczne: 01 2
21 xx , dla którego rozwiązaniami są:
2
2
2
11
2
4
x .
Warunek stacjonarności dla AR(2): wartość bezwzględna odwrotności obu rozwiązań wielomianu
(=pierwiastków charakterystycznych) jest mniejsza niż 1. Pod takim warunkiem funkcja ACF równania
0,2211
ssss
dąży do zera wraz ze wzrostem opóźnienia s.
3. Średnia procesu
11
)(21
21
0
tyE
02211
ssss
4. Funkcja autokorelacji:
2,
,1
,1
2211
2
1
1
0
s
sss
ACF stacjonarnego AR(2) spełnia następujące równanie:
1
2
210)1(
ss
s
L
LL
Wyrażeniu w nawiasie odpowiada wielomian stopnia drugiego:
5. Prognoza – podobnie jak w AR(1).
Model AR(p)
Jeżeli yt zależy od większej ilości własnych opóźnień, zapisujemy to jako proces autoregresyjny rzędu p AR(p):
Npayyytptptt
....110
Wartość oczekiwana procesu:
p
tyE
...1)(
1
0 , dla 0...1
1
Funkcja wielomianu (równanie charakterystyczne):
0...1 2
21 p
pxxx
Warunkiem testowania stacjonarności AR(p) jest to, aby rozwiązania równania charakterystycznego modelu
(=stowarzyszonego z modelem równania wielomianowego) leżały poza okręgiem o promieniu 1.
2 postaci wielomianu (z warunkiem stacjonarności procesu):
0...1 2
21 p
pxxx moduły rozwiązań powinny być > 1
0...1
2
2
1
1
pp
ppp zzzz moduły rozwiązań powinny być < 1
00)...1( 2
21 sdlaLLL
s
p
p
Proces AR(p) jest stacjonarny, jeżeli funkcja autokorelacji maleje wraz ze zwiększeniem długości opóźnień.
Zapis modelu AR(p)
t
p
it
i
it
p
ititit
arLr
arr
1
1
)...1()(
)(
2
21
p
p
tt
LLLL
arL
ptpttt
t
p
pt
rrrr
rLLLrL
...
)...1()(
2211
2
21
Przykład 1:
Czy następujący model jest stacjonarny?
tttayy
1
Należy zapisać yt-1 uwzględniając operator opóźnień:
L
ayaLy
aLyy
aLyy
t
ttt
ttt
ttt
1)1(
Równanie charakterystyczne 01 x ma pierwiastek charakterystyczny x = 1 (na okręgu). Powyższy
proces jest niestacjonarny (jest to proces błądzenia losowego).
Identyfikacja procesu AR(p)
Funkcja autokorelacji cząstkowej
Kryteria informacyjne
1.1 Funkcja autokorelacji cząstkowej PACF (partial autocorrelation function)
mierzy korelację między obserwacją t a obserwacją t-k po usunięciu efektu korelacji z obserwacjami t-k+1, t-
k+2 itd.
W praktyce współczynniki autokorelacji cząstkowej są współczynnikami korelacji między błędami predykcji przy rozszerzaniu modelu o kolejne opóźnienia (czyli zmianie s od 0 do p). Można je traktować jako
współczynniki regresji w równaniu yt względem stałej i opóźnionych wartości yt:
ttttt
tttt
ttt
eyyyy
eyyy
eyy
333,323,213,13,0
222,212,12,0
111,11,0
Estymator φ1,1 z pierwszego równania jest wartością funkcji autokorelacji cząstkowej z próby dla opóźnienia 1,
φ2,2 dla opóźnienia 2, φ3,3 dla opóźnienia 3 itd. Przy opóźnieniu o 1 okres ACF i PACF są równe (nie ma bezpośrednich efektów do usunięcia).
W przypadku procesu AR(p) występuje bezpośrednie powiązanie między yt i yt-s dla s ≤ p, ale nie ma
bezpośredniego powiązania dla s > p.
Np. Dla modelu AR(3)
ttttt arrrr 3322110
występuje bezpośrednie powiązanie między rt i rt-3, ale nie między rt a rt-s dla
s > 3. Dlatego PACF:
dla p > s będzie osiągał wartości niezerowe,
dla s > p będzie zerem→ dla procesu AR(p) PACF „ucina” się w opóźnieniu p.
1.2 Kryteria informacyjne
Wybór konkretnej postaci modelu dokonuje się również w oparciu o kryteria informacyjne, wykorzystujące
funkcję wiarygodności, L. Dana jest próba:
},...,{ 1 Trr . Wówczas: );,...,()( 1 TrrfL , gdzie f jest gęstością łącznego rozkładu zmiennych
},...,{ 1 Trr , a θ jest wektorem parametrów określających ten rozkład.
Kryteria informacyjne zawierają 2 elementy: sumę kwadratów odchyleń i pewną formę „kary” za utratę stopni
swobody (oba działają w przeciwnych kierunkach).
A. Akaike AIC [1974]:
T
k
T
LAIC
2)ˆ(ln2
estymator MNW dla wariancji reszt
k oznacza liczbę szacowanych parametrów, T liczbę obserwacji, a ln L(θ) jest wartością funkcji wiarygodności,
wyliczoną w oparciu o oszacowania wektora parametrów θ, który ją maksymalizuje;
Dobór modelu w oparciu o minimalną wartość kryterium informacyjnego AIC.
B. Schwarz SBIC (bayesowskie kryterium informacyjne) [1978]
)ln()ˆ(ln2
TT
k
T
LSBIC
C. Hannan-Quinn (HQIC)
)][ln(ln2)ˆ(ln2
TT
k
T
LHQIC
Przykładowe procesy AR(p) (szeregi generowane przy użyciu Excela)
Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu AR(1) ttt
ayy 1
9.0
Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu AR(1) ttt
ayy 1
9.0
Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu AR(1) ttt
ayy 1
5.0 i
tttayy
15.0 .
Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu AR(1) ttt
ayy 1
1.0 .
Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu błądzenia losowego
tttayy
1.
2 Proces średniej ruchomej (model ze średnią ruchomą) MA
MA(1):
1. Postać: 11 ttt aar
2. Stacjonarność: zawsze stacjonarny
3. Wartość oczekiwana: )( trE
4. Wariancja: 22
1
22
1
2
11 )1()var()var( aaattt aar
5. Autokowariancja:
Dla opóźnienia 1: 2
1),cov( att rr
Dla opóźnienia l: 0),cov( ltt rr dla l > 1
6. Autokorelacja: 0,1 21
l
dla l > 1.
MA(q) jest modelem o skończonej pamięci – „nie pamięta” co stało się więcej niż q okresów temu.
7. Prognoza:
nnn aar 11
1 krok naprzód: nn ar )1(ˆ
błąd prognozy: 11 )1(ˆ)1( nnnn arre , wariancja: 2
a
prognoza na wiele okresów: )(ˆ lrn dla l > 1.
Dla modelu MA(1) prognoza na kolejne okresy, poza 1, jest równa średniej procesu (model ma pamięć 1
okresu).
1122
2
1122
)2(ˆ)2(
)()2(ˆ
nnnnn
nnn
nnn
aarre
FrEr
aar
Błąd prognozy wielookresowej: 1)( lnlnn aale
Wariancja błędu prognozy wielookresowej: )var()1( 22
ta r
8. Odwracalność procesu. Zwroty rt są liniową funkcją at i poprzednich obserwacji. Dla modelu
odwracalnego, zależność między rt a rt-l jest zbieżna do zera wraz ze wzrostem l. Warunkiem
odwracalności jest 1 . Odwracalność procesu MA jest odpowiednikiem stacjonarności procesu
AR.
MA(2)
1. Postać: 2211 tttt aaar
2. Stacjonarność: zawsze stacjonarny
3. Wartość oczekiwana: )( trE
4. Wariancja: 22
2
2
1
22
2
22
1
2
2211
)1(
)var()var(
a
aaatttt aaar
5. ACF: 0,02 l dla l > 2
6. Prognoza zmierza do średniej po 2 okresach
MA(q):
qs
qs
r
asqqsss
s
aqt
0
)...
)...1()var(
2
2211
222
2
2
10
Proces MA(q) ma stałą (niezależną w czasie) średnią, stałą wariancję i autokowariancję, która może być różna
od zera do opóźnienia q, dla opóźnień większych niż q jest zawsze równa zero. Dlatego też proces MA(q) jest
modelem skończonej pamięci (ograniczonej do s opóźnień).
Budowa modelu MA:
Specyfikacja – przy użyciu ACF dla próby: rząd procesu jest równy liczbie opóźnień, dla których
obserwujemy statystycznie istotne korelacje.
Stała w modelu – zależy od średniej w próbie
Estymacja MA(q)
o Warunkowa metoda wiarygodności – zakłada, że początkowe szoki (t ≤ 0) są zerowe, stąd:
0ta , 11 ra oraz 1122 ara .
o Dokładna (exact) metoda wiarygodności – początkowe szoki są dodatkowymi parametrami wymagającymi oszacowania (bardziej wymagająca)
Weryfikacja modelu – sprawdzenie, na ile model opisuje dynamikę szeregu oraz czy reszty są białym
szumem.
Zasady identyfikacji modeli AR(p) i MA(q):
Jeżeli proces jest typu AR(p), to funkcja ACF maleje wykładniczo lub jest sinusoidą o zmniejszającej
się amplitudzie wahań, natomiast funkcja PACF urywa się po odstępie p (jest równa zero)
Jeżeli proces jest typu MA(q), to ACF urywa się po odstępie q, a PACF maleje wykładniczo lub jest
sinusoidą o zmniejszającej się amplitudzie wahań.
ACF dla AR ma ten sam kształt, co PACF dla MA i na odwrót.
Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu MA(1) ttt
aay 1
5.0
Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu MA(1) ttt
aay 1
5.0
Funkcja autokorelacji ACF i autokorelacji cząstkowej PACF dla modelu MA(2)
ttttaaay
2125.05.0
3 Modele stacjonarnych procesów stochastycznych – ARMA
ARMA(1,1)
1. Postać: tt aLrL )1()1( 101
i. 11011 tttt aarr
at – jest białym szumem, zał.:11 .
2. Stacjonarność: jak w AR 3. Odwracalność: jak w MA
4. Wartość średnia: jak w AR
)()()()( 11011 tttt aEaErErE
Ponieważ E(ai)=0 dla wszystkich i
1
0
1)(
trE
5. Wariancja: 2
1
22
111
1
)21()var(
a
tr
6. Autokorelacja: 11 kk dla k > 1
Ale 1
0
2
111
a
To jest różnica między AR i ARMA.
Graficznie, ACF modelu ARMA(1,1) zachowuje się bardzo podobnie, jak w modelu AR(1), z tym że zanikanie
wykładnicze zaczyna się od opóźnienia 2. ACF nie zanika po s opóźnieniach.
PACF także nie zanika – zachowuje się bardziej jak MA(1).
Uogólniona ARMA(p,q)
p
i
q
iitititit aarr
1 10
stdlaaaEaEaEstatt
0)(,)(,0)( 22
Obecna wartość szeregu r zależy liniowo od poprzednich wartości r oraz połączenia obecnych i poprzednich
wartości składnika losowego (innowacji).
t
q
qt
p
p aLLrLL )...1()...1( 101
tt aLrL )()( 0
Podobnie jak modelu AR, wielomian autoregresyjny „wprowadza” równanie charakterystyczne modelu ARMA.
Jeżeli wszystkie pierwiastki charakterystyczne równania są mniejsze co do wartości bezwzględnej od 1,
wówczas model ARMA jest kowariancyjnie stacjonarny. W takim przypadku bezwarunkowa wartość
oczekiwana modelu wynosi:
)...1/()( 10 ptrE
Cechy ARMA są połączeniem cech procesu AR i MA. W tym kontekście PACF jest szczególnie użyteczna dla rozróżnienia między procesem AR(p) i ARMA(p,q) – AR(p) ma wykładniczo malejącą funkcję ACF i PACF
osiągającą wartość zera po p opóźnieniach, podczas gdy dla ARMA(p,q) obie funkcje, ACF i PACF, maleją
geometrycznie.
ARMA: zanikające wykładniczo AF i PACF (tłumione sinusoidy)
Budowa modelu ARMA – podejście Boxa-Jenkinsa
Etapy:
1. Wyznaczenie przyrostów (różnicowanie) wyjściowego szeregu w celu uzyskania szeregu
stacjonarnego
Decyzja co do stacjonarności szeregu – na podstawie testów pierwiastka jednostkowego lub ACF
(dla szeregów stacjonarnych korelogram wygasa wraz ze wzrostem liczby opóźnień). 2. Specyfikacja wstępnego modelu
Analiza korelogramu w celu ustalenia odpowiedniego rzędu składowych AR i MA (procedura ma
charakter arbitralny)
3. Estymacja modelu
4. Weryfikacja (jeżeli model nie spełnia warunków - wracamy do kroku 2)
a. „rozciąganie” w czasie
b. obserwacja reszt w modelu (testy autokorelacji – najlepiej LM)
5. Zastosowanie modelu do celów predykcyjnych
Prognozowanie przy użyciu modelu ARMA
Prognoza na 1 okres w przód:
11
11
1101
)1(ˆ)1(
)()1(ˆ
nnnn
q
iini
p
iininnn
arre
arFrEr
Prognoza na s okresów wprzód:
q
ini
p
ininlnn ilailrFrElr
110 )()(ˆ)()(ˆ
gdzie 0,)(ˆ ildlarilr iln
00)( ildlailan i 0)( ildlaaila ilnn
Błąd prognozy:
)(ˆ)( lrrse nlnh
4 Określenie trafności prognozy
Średni błąd kwadratowy (mean square error) – szczególnie użyteczna w sytuacjach, gdzie duże błędy
prognoz są częstsze niż małe błędy: pomiar jest bardzo wrażliwy na obserwacje nietypowe;
T
Ttstst rr
TTMSE
1
2,
1
)ˆ()1(
1
T – wielkość próby (wszystkich r)
T1 – pierwsza prognoza
Pierwiastek z średniego błędu kwadratowego (root mean square error)
5.0
1
2, ])ˆ(
1[
H
Ttstst rr
HRMSE
H = horyzont prognozy
Średni błąd bezwzględny (mean absolute error) – mniejsza waga dla obserwacji nietypowych
(outliers)
T
Ttstst rr
TTMAE
1
,1
ˆ)1(
1
Skorygowany (symetryczny) średni błąd bezwzględny
T
Tt stst
stst
rr
rr
TTAMAPE
1 ,
,
1 ˆ
ˆ
)1(
100
Błędy prognoz są podzielone przy dwukrotność średnich wartości faktycznych i prognozowanych; AMAPE
osiąga tą samą wartość zarówno, jeżeli prognoza wynosi 0,5, a wartość obserwowana 0,3, jak i gdy wartość
obserwowana wynosi 0,5, a prognoza 0,3.
Średni błąd MAPE (mean absolute percentage error)– interpretowany jako błąd procentowy
T
Tt st
stst
r
rr
TTMAPE
1
,
1
ˆ
)1(
100
Statystyka U – Theila
T
Tt
st
stst
st
stst
r
brr
r
rr
U
1 2,
2,
)ˆ
(
)ˆ
(
gdzie rbts jest prognozą z modelu odniesienia (np.z prognozowania naiwnego lub błądzenia losowego). Wartość
statystyki: U = 1 oznacza, że rozpatrywany model i model odniesienia są równie (nie)dobre,
U < 1 oznacza, że weryfikowany model jest lepszy od modelu odniesienia
U > 1 ……………………………………….gorszy ………………………
Ocena dopasowania modelu:
1. Na ile model opisuje dynamikę zwrotów
2. Weryfikacja reszt z modelu – ciąg reszt powinien być realizacją ścisłego białego szumu (zależności
liniowe i nieliniowe)