Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy...

39
Procesy Stochastyczne I Rafal Latala 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do wybranych wykladów z Procesów Sto- chastycznych I, prowadzonych na wiosnę 2002 i 2003 roku. Zasadniczo wyklad oparto o podręcznik [8], choć oczywiście dokonano znacznych skrótów, jak rów- nież uzupelnień i modyfikacji, szczególnie w pierwszych rozdzialach. U czytelnika zaklada się znajomość podstawowych faktów z zakresu kursowe- go wykladu z rachunku prawdopodobieństwa. Wszystkie potrzebne wiadomości można znaleźć w podręcznikach [2] i [4]. Pewne istotne dla zrozumienia wykla- dów twierdzenia, nie zawsze dowodzone podczas kursowych wykladów, zebrano w dodatkowym rozdziale A. Gwiazdkami oznaczono paragrafy dla których za- braklo czasu w trakcie wykladów i których znajomość nie będzie wymagana podczas egzaminu, choć mile widziana. Autor z góry przeprasza za wszystkie nieścislości i omylki mogące się pojawić w tekście i jednocześnie zwraca się z prośbą do czytelników, którzy zauważyli blędy lub mają jakieś inne uwagi na temat notatek o ich zakomunikowanie osobiste lub wyslanie na adres emailowy [email protected] z podaniem wersji notatek (daty), której dotyczą. 1

Transcript of Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy...

Page 1: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Procesy Stochastyczne I

Rafał Latała

4 kwietnia 2003

Wstęp

Poniższy tekst zawiera notatki do wybranych wykładów z Procesów Sto-chastycznych I, prowadzonych na wiosnę 2002 i 2003 roku. Zasadniczo wykładoparto o podręcznik [8], choć oczywiście dokonano znacznych skrótów, jak rów-nież uzupełnień i modyfikacji, szczególnie w pierwszych rozdziałach.

U czytelnika zakłada się znajomość podstawowych faktów z zakresu kursowe-go wykładu z rachunku prawdopodobieństwa. Wszystkie potrzebne wiadomościmożna znaleźć w podręcznikach [2] i [4]. Pewne istotne dla zrozumienia wykła-dów twierdzenia, nie zawsze dowodzone podczas kursowych wykładów, zebranow dodatkowym rozdziale A. Gwiazdkami oznaczono paragrafy dla których za-brakło czasu w trakcie wykładów i których znajomość nie będzie wymaganapodczas egzaminu, choć mile widziana.

Autor z góry przeprasza za wszystkie nieścisłości i omyłki mogące się pojawićw tekście i jednocześnie zwraca się z prośbą do czytelników, którzy zauważylibłędy lub mają jakieś inne uwagi na temat notatek o ich zakomunikowanieosobiste lub wysłanie na adres emailowy [email protected] z podaniemwersji notatek (daty), której dotyczą.

1

Page 2: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

1 Podstawowe Przykłady Procesów Stochastycz-nych

Zaczniemy od podania podstawowych definicji używanych podczas całego wy-kładu. Podamy też dwa podstawowe przykłady procesów stochastycznych - pro-ces Poissona i proces Wienera.

Definicja 1.1 Niech (Ω, F , P) będzie przestrzenią probabilistyczną, (E, E) prze-strzenią mierzalną, zaś T dowolnym zbiorem. Procesem stochastycznym o war-tościach w E, określonym na zbiorze T nazywamy rodzinę zmiennych losowychX = (Xt)t∈T .

Uwaga 1.1 W zasadzie w czasie całego wykładu T będzie podzbiorem R(najczęściej przedziałem ograniczonym lub nie), zaś E = R lub Rd. Parametr tmożna wówczas interpretować jako czas.

Definicja 1.2 Trajektorią procesu X nazywamy funkcję (losową!) t → Xt(ω),określoną na zbiorze T o wartościach w E.

Definicja 1.3 Powiemy, że proces X = (Xt)t∈T , T ⊂ R ma przyrosty niezależ-ne jeśli dla dowolnych indeksów t0 ¬ t1 ¬ . . . ¬ tn ze zbioru T , zmienne losoweXt0 , Xt1 − Xt0 , Xt2 − Xt1 , . . . , Xtn − Xtn−1 są niezależne.

1.1 Proces Poissona

Definicja 1.4 Procesem Poissona z parametrem (intensywnością) λ > 0 nazy-wamy proces stochastyczny N = (Nt)t­0 taki, że

N0 = 0; (P0)

N ma przyrosty niezależne (P1)

Dla 0 ¬ s ¬ t zmienna Nt − Ns ma rozkład Poiss(λ(t − s)); (P2)

Trajektorie N są prawostronnie ciągłe. (P3)

Uwaga 1.2 Warunek (P3) oznacza, że dla wszystkich ω ∈ Ω, t → Nt(ω) jestfunkcją prawostronnie ciągłą na [0, ∞). Czasami w definicji procesu Poissonazakłada się, że prawie wszystkie trajektorie są prawostronnie ciągłe.

Uwaga 1.3 Proces Poissona (jak i zdefiniowany dalej proces Wienera) sta-nowią dwa podstawowe przykłady tak zwanych procesów Levy’ego. Procesy temają przyrosty niezależne i stacjonarne oraz prawostronnie ciągłe trajektorie zlewostronnymi granicami.

Definicja 1.5 Mówimy, że proces stochastyczny (Xt)t­0 ma przyrosty stacjo-narne jeśli rozkład Xt − Xs zależy tylko od t − s czyli

∀t>s­0 Xt − Xs ∼ Xt−s − X0.

2

Page 3: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Uwaga 1.4 Warunki (P0)-(P3) implikują, że prawie wszystkie trajektorie N sąniemalejącymi prawostronnie ciągłymi funkcjami o wartościach w Z+ ze skokamio wartości 1.

1.1.1 Konstrukcja procesu Poissona

Niech X1, X2, . . . będą niezależnymi zmiennymi losowymi o rozkładzie wykład-niczym z parametrem λ (czyli mają gęstość λe−λtIt­0) określamy

Nt = supn : Sn ¬ t, gdzie (1)

S0 = 0, Sn =n∑

k=1

Xk, n = 1, 2, . . . .

Twierdzenie 1.1 Proces stochastyczny (Nt)t­0 zdefiniowany wzorem (1) jestprocesem Poissona z intensywnością λ.

Warunki (P0) i (P3) są spełnione w oczywisty sposób, wystarczy więc spraw-dzić (P1) i (P2). Najpierw udowodnimy pewien techniczny lemat.

Lemat 1.2 Załóżmy, że h : R+ → C jest funkcją taką, że |h| ¬ 1 oraz h(u) = 1dla u ­ u0. Wówczas zmienna losowa Y =

∏∞k=1 h(Sk) jest dobrze określona,

całkowalna oraz

EY = exp(λ∫ ∞

0(h(u) − 1)du).

Dowód. Ponieważ prawie na pewno Sk → ∞, więc h(Sk) = 1 dla dużychk, czyli zmienna Y jest dobrze określona, a ponieważ |Y | ¬ 1 więc jest rów-nież całkowalna. Stosując twierdzenie Lebesgue’a o zbieżności zmajoryzowanejdostajemy

EY = limn→∞

En∏

k=1

h(Sk).

Liczymy stosując zamianę zmiennych

En∏

k=1

h(Sk) =∫ ∞

0. . .

∫ ∞

0h(x1) · · · h(x1 + . . . + xn)λne−λ(x1+...+xn)dx1 . . . dxn

= λn

∫ ∞

0h(un)e−λun(

∫. . .

∫0¬u1¬u2¬...¬un−1¬un

h(u1) · · · h(un−1)du1 . . . dun−1)dun

=λn

(n − 1)!

∫ ∞

0h(un)e−λun(

∫ un

0. . .

∫ un

0h(u1) · · · h(un−1)du1 . . . dun−1)dun

=λn

(n − 1)!

∫ ∞

0h(u)e−λu(

∫ u

0h(s)ds)n−1du,

3

Page 4: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

gdzie w przedostatniej linijce skorzystaliśmy z tego, że funkcja h(u1) · · · h(un−1)jest symetryczna względem permutacji zmiennych u1, . . . , un−1. Połóżmy A :=∫ ∞

0 (h(u) − 1)du, wtedy wobec założenia iż h(u) = 1 dla u ­ u0 dostajemy∫ u

0h(s)ds = u +

∫ u

0(h(s) − 1)ds = u + A dla u ­ u0.

Stąd

En∏

k=1

h(Sk) =λn

(n − 1)!

∫ u0

0h(u)e−λu(

∫ u

0h(s)ds)n−1du

+λn

(n − 1)!

∫ ∞

u0

e−λu(u + A)n−1du = In + II n.

Zauważmy, że |h(u)| ¬ 1 czyli |∫ u

0 h(s)ds| ¬ u, a zatem

|In| ¬ λn

(n − 1)!

∫ u0

0un−1e−λu ¬ λnun−1

0

(n − 1)!

∫ ∞

0e−λu =

(λu0)n−1

(n − 1)!→ 0.

By policzyć limn→∞ II n zauważmy, że

λn

(n − 1)!

∫ ∞

0(u + A)n−1e−λudu =

λn

(n − 1)!

n−1∑k=0

(n − 1

k

)Ak

∫ ∞

0un−1−ke−λudu

=n−1∑k=0

(n − 1

k

)λn

(n − 1)!Akλ−n+k(n − k − 1)! =

n−1∑k=0

λkAk

k!→ eλA

oraz

| λn

(n − 1)!

∫ u0

0(u + A)n−1e−λudu| ¬ λn

(n − 1)!(u0 + |A|)n−1

∫ ∞

0e−λudu

=λn−1(u0 + |A|)n−1

(n − 1)!→ 0.

Czyli

EY = limn→∞

λn

(n − 1)!

∫ ∞

0(u + A)n−1e−λudu = eλA.

Wniosek 1.3 Załóżmy, że B1, B2, . . . , Bn są rozłącznymi, ograniczonymi pod-zbiorami R+ oraz określmy

N(Bi) = #k : Sk ∈ Bi =∞∑

k=1

IBi(Sk).

Wówczas N(B1), . . . , N(Bn) są niezależnymi zmiennymi losowymi o rozkładziePoiss(λm(Bk)), gdzie m oznacza miarę Lebesgue’a.

4

Page 5: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. Policzymy wielowymiarową funkcję charakterystyczną

E exp(in∑

k=1

tkN(Bk)) = E∞∏

k=1

h(Sk), gdzie

h(x) =

eitk x ∈ Bk

1 x /∈ B1 ∪ . . . ∪ Bn.

Mamy ∫ ∞

0(h(u) − 1)du =

n∑k=1

∫Bk

(eitk − 1)du =n∑

k=1

m(Bk)(eitk − 1),

czyli na mocy Lematu 1.2

E exp(in∑

k=1

tkN(Bk)) = exp(λn∑

k=1

m(Bk)(eitk − 1)).

W szczególności

E exp(itN(Bk)) = exp(λm(Bk)(eit − 1)) = E exp(itPoiss(λm(Bk))),

czyli N(Bk) ma rozkład Poiss(λm(Bk)), ponadto

E exp(in∑

k=1

tkN(Bk)) =n∏

k=1

exp(itkN(Bk)),

a zatem N(B1), . . . , N(Bn) są niezależnymi zmiennymi losowymi.

Dowód Twierdzenia 1.1. Zauważmy, że przy oznaczeniach z Wnioskumamy Nt = N([0, t]) oraz Nt − Ns = N((s, t]) dla s < t. Stąd warunki (P1) i(P2) w oczywisty sposób wynikają z Wniosku.

1.1.2 *Złożony Proces Poissona*

Trajektorie procesu Poissona są prawostronnie ciągłe, kawałkami stałe, odle-głości między skokami są zmiennymi niezależnymi o rozkładzie wykładniczymoraz wszystkie skoki są równe 1. Jeśli odrzucimy ten ostatni warunek, a zało-żymy, iż kolejne skoki są zmiennymi niezależnymi o jednakowym rozkładzie tootrzymamy tzw. złożony proces Poissona.

Definicja 1.6 Załóżmy, że ∆1, ∆2, . . . są niezależnymi zmiennymi losowymi ojednakowym rozkładzie, a (Nt)t­0 procesem Poissona z intensywnością λ nieza-leżnym od zmiennych ∆i. Wówczas proces N∆ = (N∆

t )t­0 dany wzorem

N∆t =

0 Nt = 0∑Nt

n=1 ∆n Nt > 0

nazywamy złożonym procesem Poissona.

5

Page 6: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Zauważmy, że rozkład złożonego procesu Poissona jest wyznaczony przezdwa parametry - intensywność skoków λ i rozkład pojedynczego skoku ∆1. Wy-godnie jest zakładać, że P(∆1 = 0) = 0, by uniknąć sytuacji ”pozornego skoku”.Zwykły proces Poissona odpowiada sytuacji, gdy P(∆1 = 1) = 1.

Używająć Lematu 1.2 można bez trudu wykazać, że

Fakt 1.4 Niech N∆ będzie złożonym procesem Poissona. Wówczas N∆0 = 0,

N∆ ma przyrosty niezależne i stacjonarne oraz trajektorie prawostronne cią-głe, kawałkami stałe. Odległości między poszczególnymi skokami są zmiennyminiezależnymi o jednakowym rozkładzie wykładniczym.

1.1.3 *Charakteryzacje Procesu Poissona*

Fakt 1.5 Załóżmy, że X = (Xt)t­0 jest procesem stochastycznym takim, żeX0 = 0, X ma przyrosty niezależne i stacjonarne oraz trajektorie niemaleją-ce, prawostronnie ciągłe, o wartościach całkowitych, skokach równych 1 orazzbiegające do ∞ w ∞. Wówczas X jest procesem Poissona.

Idea dowodu polega na tym, że Xt jest sumą przyrostów Xkt/n − X(k+1)t/n.Przyrosty te mają jednakowe rozkłady, są niezależne i mają wartości całkowitenieujemne. Pokazuje się, że jak n jest duże to z prawdopodobieństwem bliskim 1wszystkie przyrosty przyjmują tylko wartości 0 lub 1. Zatem Xt aproksymuje sięprzez rozkład Bernoulliego Bin(n, pn). Pokazujemy dalej, że npn jest ograniczoneczyli przechodząć do podciągu nkpnk

→ λ(t), a stąd Xt ma rozkład Poissonaz parametrem λ(t). Dalej już łatwo dowodzimy, że λ(t) jest funkcją liniową,niemalejącą, czyli jest postaci λt.

Prawdziwe jest znacznie ogólniejsze twierdzenie charakteryzujące złożoneprocesy Poissona.

Twierdzenie 1.6 Załóżmy, że dany jest proces stochastyczny X = (Xt)t­0 ta-ki, że X0 = 0, X ma przyrosty niezależne i stacjonarne oraz trajektorie prawo-stronnie ciągłe, kawałkami stałe, ze skończoną liczbą skoków w każdym przedzialeskończonym. Wówczas X jest złożonym procesem Poissona.

1.2 Proces Wienera (Ruch Browna)

Definicja 1.7 Procesem Wienera (Ruchem Browna) nazywamy proces stocha-styczny W = (Wt)t­0 taki, że

W0 = 0; (W0)

W ma przyrosty niezależne; (W1)

Dla 0 ¬ s ¬ t zmienna Wt − Ws ma rozkład normalny N (0, t − s); (W2)

Trajektorie W są ciągłe . (W3)

Uwaga 1.5 Warunek (W3) oznacza, że dla wszystkich ω ∈ Ω, t → Wt(ω) jestfunkcją ciągłą na [0, ∞). Czasami w definicji procesu Wienera zakłada się, żeprawie wszystkie trajektorie są prawostronnie ciągłe.

6

Page 7: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

1.2.1 *Konstrukcja Procesu Wienera*

W dalszej części wykładu podamy dość długą konstrukcję procesu Wieneraopartą o ogólniejsze twierdzenia dotyczące istnienia i ciągłości trajektorii pro-cesów stochastycznych. W tym paragrafie jedynie naszkicujemy alternatywnąkonstrukcję.

Najpierw zdefiniujemy pewne dwa ważne układy funkcji.

Definicja 1.8 Niech I(0) = 1, I(n) = 1, . . . , 2n−1, n = 1, 2, . . .. UkłademHaara nazywamy rodzinę funkcji (hn,k)n=0,1,...,k∈I(n) określonych na [0, 1] wzo-rami h0,1(t) ≡ 1 oraz

hn,k(t) =

2n−1

2 (2k − 2)2−n ¬ t < (2k − 1)2−n

−2n−1

2 (2k − 1)2−n ¬ t < 2k2−n

0 w pozostałych przypadkach, n = 1, 2, . . . , k ∈ I(n).

Definicja 1.9 Przy oznaczeniach poprzedniej definicji układem Schaudera na-zywamy rodzinę funkcji (Sn,k)n=0,1,...,k∈I(n) określonych na [0, 1] wzorem Sn,k(t) =∫ t

0 hn,k(s)ds.

Fakt 1.7 a) Układ Haara jest bazą ortonormalną przestrzeni L2[0, 1].b) Dla ustalonego n ­ 1, funkcje (Sn,k)k∈I(n) mają rozłączne nośniki oraz‖Sn,k‖∞ = 2−(n+1)/2.

Uwaga 1.6 Układ Haara jest bazą Schaudera w przestrzeniach Lp[0, 1], 1 ¬ p <∞. Po dodaniu funkcji stale równej 1, układ Schaudera staje się bazą Schauderaprzestrzeni C[0, 1].

Fakt 1.8 Dla dowolnych t, s ∈ [0, 1] mamy

∞∑n=0

∑k∈I(n)

Sn,k(t)Sn,k(s) = min(t, s).

Niech (gn,k)n=0,1,...,k∈I(n) będzie rodziną niezależnych zmiennych losowycho rozkładzie N (0, 1), połóżmy

W(n)t (ω) =

n∑m=0

∑k∈I(m)

gm,k(ω)Sm,k(t).

Twierdzenie 1.9 Dla prawie wszystkich ω ∈ Ω ciąg funkcji (W (n)t (ω)) zbie-

ga jednostajnie na [0, 1] do pewnej funkcji ciągłej Wt(ω). Jeśli określimy np.Wt(ω) = 0 dla pozostałych ω to tak zdefiniowany proces stochastyczny jest pro-cesem Wienera na [0,1].

Uwaga 1.7 Mając dany proces Wienera (Wt)t∈[0,1] nietrudno skonstruowaćproces Wienera na całej prostej. Można np. sprawdzić, że ((1+t)W 1

1+t−W1)t­0

jest takim procesem.

7

Page 8: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

1.2.2 *Charakteryzacje procesu Wienera*

Zaczniemy od następującego dość łatwego twierdzenia:

Twierdzenie 1.10 Załóżmy, że proces stochastyczny (Xt)t­0 spełnia warunki(W0), (W1), (W3) (z X w miejsce W ) oraz

X ma przyrosty stacjonarne; (W2a)

EX1 = 0, Var(X1) = 1 (W2b)

i∀t­0 EX4

t < ∞. (W2c)

Wówczas Wt jest procesem Wienera.

Idea dowodu polega na użyciu Centralnego Twierdzenia Granicznego w wer-sji Lindeberga-Levy’ego. Najpierw dowodzimy, że funkcje a(t) = EXt i b(t) =Var(Xt) są liniowe, z warunku (W2c) pokazujemy, że są ciągłe, a stąd wobecnormalizacji (W2b) mamy a(t) = 0, b(t) = t. Następnie przedstawiamy

Xt =n∑

k=1

(Xkt/n − X(k−1)t/n)

i pokazujemy, że układ trójkątny (Xkt/n − X(k−1)/n)1¬k¬n, n=1,2,... spełnia wa-runek Lindeberga (znowu używając warunku (W2c)).

Uwaga 1.8 Warunek (W2c) nie jest konieczny - zob. Twierdzenie 5 z paragrafu13.1 ksiązki [4].

Okazuje się, że również nie trzeba zakładać skończoności wariancji ani nawetistnienia wartości średniej W1 - warunek (W2b) ma charakter czysto normali-zacyjny. Dokładniej zachodzi następujące twierdzenie.

Twierdzenie 1.11 Załóżmy, że proces stochastyczny X = (Xt)t­0 spełnia wa-runki (W0),(W1),(W2a) i (W3). Wówczas istnieją stałe a, b ∈ R i proces Wie-nera W takie, że Xt = aWt + bt dla wszystkich t ­ 0.

1.2.3 Nieróżniczkowalność trajektorii

Trajektorie procesu Wienera mają wiele ciekawych własności, część z nich pozna-my później. Obecnie pokażemy, że mimo iż są ciągłe to z prawdopodobieństwem1 nie są różniczkowalne w żadnym punkcie.

Twierdzenie 1.12 Prawie wszystkie trajektorie procesu Wienera (Wt)t­0 sąfunkcjami nieróżniczkowalnymi w żadnym punkcie tzn.

P(∃t0­0 t → Wt(ω) jest różniczkowalne w t0) = 0.

8

Page 9: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. Najpierw pokażemy nieróżniczkowalność trajektorii na [0, 1) tzn.

P(∃t0∈[0,1) t → Wt(ω) jest różniczkowalne w t0) = 0.

Zauważmy, że jeśli funkcja f : [0, 1] → R jest różniczkowalna w t0 ∈ [0, 1) oraz|f ′(t0)| < M to |f(t) − f(t0)| ¬ M |t − t0| dla |t − t0| ¬ ε. Zatem jeśli j/n ¬t0 < (j + 1)/n to dla dostatecznie dużych n

|f(j + 1

n) − f(

j

n)| ¬ |f(

j + 1n

) − f(t0)| + |f(t0) − f(j

n)| ¬ M(

1n

+1n

) =2M

n,

|f(j + 2

n)−f(

j + 1n

)| ¬ |f(j + 2

n)−f(t0)|+|f(t0)−f(

j + 1n

)| ¬ M(2n

+1n

) =3M

noraz

|f(j + 3

n)−f(

j + 2n

)| ¬ |f(j + 3

n)−f(t0)|+|f(t0)−f(

j + 2n

)| ¬ M(3n

+2n

) =5M

n.

Stąd jeśli funkcja f jest różniczkowalna w jakimś punkcie przedziału [0, 1) to

∃M<∞ ∃m<∞ ∀n­m ∃0¬j¬n−3∀k=0,1,2 |f(j + k + 1

n) − f(

j + k

n)| ¬ 5M

n.

CzyliP(∃t0∈[0,1) t → Wt(ω) jest różniczkowalne w t0)

¬ P(∞⋃

M=1

∞⋃m=1

∞⋂n=m

n−3⋃j=0

2⋂k=0

|W j+k+1n

− W j+kn

| ¬ 5M

n)

¬∞∑

M=1

∞∑m=1

P(∞⋂

n=m

n−3⋃j=0

2⋂k=0

|W j+k+1n

− W j+kn

| ¬ 5M

n).

Z niezależności przyrostów dostajemy

P(2⋂

k=0

|W j+k+1n

− W j+kn

| ¬ 5M

n) =

2∏k=0

P(|W j+k+1n

− W j+kn

| ¬ 5M

n)

= (P(|W 1n

| ¬ 5M

n))3 = (P(

1√n

|W1| ¬ 5M

n))3

= (1√2π

∫ 5M/√

n

−5M/√

n

e−x2/2dx)3 ¬ (1√2π

10M√n

)3 ¬ 1000M3

n3/2.

Zatem

P(n−3⋃j=0

2⋂k=0

|W j+k+1n

− W j+kn

| ¬ 5M

n) ¬

n−3∑j=0

1000M3

n3/2¬ 1000M3

√n

,

9

Page 10: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

czyli

P(∞⋂

n=m

n−3⋃j=0

2⋂k=0

|W j+k+1n

− W j+kn

| ¬ 5M

n) = 0

iP(∃t0∈[0,1) t → Wt(ω) jest różniczkowalne w t0) = 0.

Nieznacznie modyfikując poprzedni dowód albo używając faktu, że Wt =T −1/2WtT też jest procesem Wienera oraz w oczywisty sposób nieróżniczkowal-ność W na [0, 1) jest równoważna nieróżniczkowalności W na [0, T ) dostajemy,że

P(∃t0∈[0,T ) t → Wt(ω) jest różniczkowalne w t0) = 0.

WreszcieP(∃t0>0 t → Wt(ω) jest różniczkowalne w t0)

= limN→∞

P(∃t0∈[0,N) t → Wt(ω) jest różniczkowalne w t0) = 0.

Uwaga 1.9 Dokładna analiza przedstawionego dowodu pokazuje, że nie wyka-zaliśmy mierzalności zdarzenia ∃t0­0 t → Wt(ω) jest różniczkowalne w t0, ajedynie to, że jest ono podzbiorem pewnego zdarzenia miary zero. By uniknąćkłopotów technicznych podobnego rodzaju wygodnie jest przyjąć, że przestrzeńprobabilistyczna (Ω, F , P) jest zupełna tzn. dowolny podzbiór zbioru miary ze-ro jest mierzalny (każdą przestrzeń probabilistyczną można rozszerzyć do prze-strzeni zupełnej).

2 Rozkłady Procesów Stochastycznych

W tej części zdefiniujemy rozkład procesu stochastycznego, w szczególności po-wiemy jakie zdarzenia określone przez proces są mierzalne. Udowodnimy rów-nież, że rozkład procesu jest wyznaczony przez rozkłady skończenie wymiaroweoraz sformułujemy warunki jakie muszą spełniać rozkłady skończenie wymiaro-we, by istniał proces o zadanych rozkładach.

Przypomnijmy najpierw, że jeśli X jest zmienną losową o wartościach wprzestrzeni (E, E) to rozkład X jest to miara probabilistyczna na (E, E) zadanawzorem

µX(A) := P(X ∈ A), A ∈ E .

Dowody twierdzeń z tej części mają dość techniczny charakter. By uniknąćdodatkowych komplikacji mogących niepotrzebnie zaciemnić obraz sytuacji bę-dziemy zakładać, że proces przyjmuje wartości w przestrzeni E = R, czytelniknatychmiast powinien zauważyć, że równie dobrze można było przyjąć E = Rd,pod koniec zaś napiszemy jakie naprawdę własności E wykorzystywaliśmy wdowodach.

10

Page 11: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Definicja 2.1 Dla procesu (Xt)t∈T o wartościach w R i t1, . . . , tn ⊂ T okre-ślamy miarę µt1,...,tn

na Rn wzorem

µt1,...,tn(A) := P((Xt1 , . . . , Xtn) ∈ A), A ∈ B(Rn).

Rodzinę miar (µt1,...,tn)n=1,2,...,t1,...,tn⊂T nazywamy rodziną skończenie wymia-rowych rozkładów procesu X.

2.1 σ-algebra zbiorów cylindrycznych

Proces X = (Xt)t∈T możemy traktować jako zmienną losową o wartościach wRT . Jakie podzbiory RT są wówczas na pewno mierzalne?

Definicja 2.2 Zbiory postaci

x ∈ RT : (xt1 , . . . , xtn) ∈ A), t1, . . . , tn ⊂ T, A ∈ B(Rn)

nazywamy zbiorami cylindrycznymi. Przez B(RT ) będziemy oznaczać najmniej-szą σ-algebrę zawierającą zbiory cylindryczne i będziemy ją nazywać σ-algebrązbiorów cylindrycznych.

Zauważmy, że

B(RT ) = σ(x ∈ RT : xt ∈ A, t ∈ T, A ∈ B(R)).

Definicja 2.3 Rozkładem procesu X = (Xt)t∈T nazywamy miarę probabili-styczną µX na B(RT ) daną wzorem

µX(C) = P((Xt)t∈T ∈ C), C ∈ B(RT ).

Przykłady

1. Zbiory xt > xs, xt1 > 0, xt2 − xt1 > 0, . . . , xtn− xtn−1 > 0 czy

∀t<s,t,s∈Q+ xt > xs należą do B(R[0,∞));

2. Zbiór supt∈T |xt| ¬ 1 nie należy do B(RT ) gdy T jest nieprzeliczalny,podobnie t → xt ciągłe nie należy do B(RT ), gdy T jest nietrywialnymprzedziałem.

Fakt 2.1 Załóżmy, że X = (Xt)t∈T i Y = (Yt)t∈T dwa procesy o tych samychskończenie wymiarowych rozkładach czyli

P((Xt1 , . . . , Xtn) ∈ A) = P((Yt1 , . . . , Ytn

) ∈ A)

dla wszystkich t1, . . . , tn ⊂ T, A ∈ B(Rn). Wówczas X i Y mają ten samrozkład tzn.

∀C∈B(RT ) P(X ∈ C) = P(Y ∈ C).

11

Page 12: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. Rodzina zbiorów cylindrycznych A tworzy π-system, a rodzinazbiorów C takich, że P(X ∈ C) = P(Y ∈ C) jest λ-systemem zawierającymA, a więc z twierdzenia o π-λ systemach zawiera również σ algebrę generowanąprzez A czyli B(RT ).

Uwaga 2.1 Załóżmy, że T jest przedziałem (skończonym lub nie). Na przestrze-ni funkcji ciagłych C(T ) rozpatrzmy topologię zbieżności niemal jednostajnej.Wówczas B(RT ) ∩ C(T ) = B(C(T )) co oznacza, że jeśli proces X = (Xt)t∈T maciągłe trajektorie to X wyznacza rozkład probabilistyczny na przestrzeni funk-cji ciągłych (C(T ), B(C(T ))). W szczególności np. proces Wienera wyznaczapewien rozkład probabilistyczny na C[0, ∞).

2.2 Warunki zgodności. Twierdzenie Kołmogorowa o ist-nieniu procesu

Definicja 2.4 Powiemy, że rodzina skończenie wymiarowych rozkładów (µt1,...,tn),n = 1, 2, . . . , t1, . . . , tn ⊂ T spełnia warunki zgodności, jeśli

• Dla dowolnych t1, t2, . . . , tn ⊂ T , dowolnej permutacji i1, . . . , in liczb1, . . . , n oraz zbiorów Ai ∈ B(R)

µti1 ,...,tin(Ai1 × Ai2 × . . . × Ain) = µt1,...,tn(A1 × A2 × . . . × An);

• Dla dowolnych t1, t2, . . . , tn+1 ⊂ T oraz Ai ∈ B(R)

µt1,...,tn,tn+1(A1 × A2 × . . . × An × R) = µt1,...,tn(A1 × A2 × . . . × An).

Oczywiście rodzina rozkładów skończenie wymiarowych dowolnego procesuspełnia warunki zgodności. Okazuje się, że są to jedyne warunki jakie należynałożyć na taką rodzinę.

Twierdzenie 2.2 Załóżmy, że dana jest rodzina skończenie wymiarowych roz-kładów (µt1,...,tn

)n=1,2,...,t1,...,tn⊂T spełniająca warunki zgodności. Wówczasistnieje proces (Xt)t∈T mający skończenie wymiarowe rozkłady równe µt1,...,tn

.

Dowód. W dowodzie wykorzystamy twierdzenie Caratheodory’ego o prze-dłużaniu miary (zob. Twierdzenie A.2). Niech A oznacza algebrę zbiorów cy-lindrycznych. Dla C ∈ A, C = x : (xt1 , . . . , xtn

) ∈ A), A ∈ B(Rn) połóżmyµ0(C) = µt1,...,tn

(A). Zauważmy, że

• z warunków zgodności wynika, że µ0 jest dobrze zdefiniowane tzn. µ0(C)nie zależy od wyboru t1, . . . , tn i A reprezentujących C.

• µ0 jest skończenie addytywna. Istotnie jeśli C1, . . . , Ck ∈ A to możnadobrać odpowiednio duży zbiór indeksów t1, . . . , tn ⊂ T taki, że zbioryC1, . . . , Ck zależą tylko od t1, . . . , tn tzn.

Ci = x : (xt1 , . . . , xtn) ∈ Ai, Ai ∈ B(Rn).

12

Page 13: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Jeśli zbiory C1, . . . , Ck są rozłączne to oczywiście również zbiory A1, . . . , Ak

są rozłączne a zatem

µ0(k⋃

i=0

Ci) = µt1,...,tn(k⋃

i=0

Ai) =k∑

i=0

µt1,...,tn(Ai) =k∑

i=0

µ0(Ci).

By zakończyć dowód musimy wykazać warunek (C) z twierdzenia Carathe-odory’ego czyli

jeśli C1 ⊃ C2 ⊃ . . . , Cn ∈ A, µ0(Cn) ­ ε > 0 to∞⋂

n=1

Cn 6= ∅.

Przypomnijmy, że każda miara µ na (Rn, B(Rn)) jest regularna (np. [6], Twier-dzenie 2.18) tzn.

µ(A) = supµ(K) : K ⊂ A, K zwarte, A ∈ B(Rn).

Zbiory Cn są cylindryczne czyli zależą tylko od skończonego zbioru indeksów.Możemy założyć, że te zbiory indeksów rosną, co więcej ewentualnie powtarzajączbiory Ci lub dodając indeksy możemy zakładać, że istnieje ciąg t1, t2, . . . z Ttaki, że

Cn = x : (xt1 , . . . , xtn) ∈ An, An ∈ B(Rn).

Z regularności istnieją zbiory zwarte Kn ⊂ An takie, że

µt1,...,tn(An \ Kn) ¬ ε

2n+1 , n = 1, 2, . . . .

Przyjmijmy Dn := x : (xt1 , . . . , xtn) ∈ Kn, wtedy µ0(Cn \ Dn) ¬ 2−n−1ε.

NiechDn := D1 ∩ . . . ∩ Dn = x : (xt1 , . . . , xtn

) ∈ Kn, gdzie

Kn = (K1 × Rn−1) ∩ (K2 × Rn−2) ∩ . . . ∩ (Kn−1 × R) ∩ Kn.

Ponieważ Cn \ Dn =⋃n

k=1(Cn \ Dk) ⊂⋃n

k=1(Ck \ Dk), więc µ0(Cn \ Dn) ¬∑nk=0 µ0(Ck \ Dk) ¬

∑∞k=1 2−k−1ε ¬ ε

2 . Zatem µ0(Dn) ­ µ0(Cn) − µ0(Cn \Dn) ­ ε − ε

2 > 0. W szczególności Dn 6= ∅ czyli możemy znaleźć x(n) ∈ Dn tzn.

(x(n)t1

, . . . , x(n)tk

) ∈ Kk, k = 1, . . . , n.

Zbiory Kk są zwarte co implikuje że dla dowolnego k ciąg (x(n)tk

)∞n=1 jest ogra-

niczony. Za pomocą metody przekątniowej możemy wybrać podciąg ni taki,że limni→∞ x

(ni)tk

= x∞tk

dla k = 1, 2, . . .. Ale wówczas z domkniętości Kn

(x∞t1

, . . . , x∞tk

) = limni→∞(x(ni)t1

, . . . , x(ni)tk

) ∈ Kn. Określmy y ∈ RT wzorem

yt =

x∞t t ∈ t1, t2, . . .

0 t /∈ t1, t2, . . .

13

Page 14: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

wówczas y ∈⋂∞

n=1 Cn czyli⋂∞

n=1 Cn 6= ∅ co chcieliśmy dowieść.Wiemy zatem, że na Ω = RT istnieje miara probabilistyczna µ rozszerzająca

µ0 czyliµ(x : (xt1 , . . . , xtn

) ∈ A)) = µt1,...,tn(A), A ∈ B(Rn).

Zatem na przestrzeni probabilistycznej (RT , B(RT ), µ) wystarczy zdefiniowaćproces X wzorem Xt(x) = xt.

Przykłady

1. Jeśli (µt)t∈T dowolna rodzina rozkładów na R to istnieje rodzina nieza-leżnych zmiennych losowych (Xt)t∈T taka, że µXt

= µt. Używamy tutwierdzenia o istnieniu dla µt1,...,tn = µt1 ⊗ . . . ⊗ µtn .

2. Istnieje proces spełniający warunki (W0)-(W2) definicji procesu Wienera.Istotnie dla 0 = t0 ¬ t1 < t2 < . . . < tn kładziemy

µt1,...,tn∼ (X1, X1 + X2, . . . ,

n∑k=1

Xk),

gdzie X1, . . . , Xn są niezależnymi zmiennymi losowymi Xk ∼ N (0, tk −tk−1). Warunki zgodności wynikają wówczas stąd iż jeśli Y1, Y2 niezależnezmienne Yi ∼ N (0, σ2

i ) to Y1 + Y2 ∼ N (0, σ21 + σ2

2).

Uwaga 2.2 Wyniki z tej części można uogólnić na przypadek, gdy Xt mawartości w znacznie ogólniejszej klasie przestrzeni E niż R bądź Rd.

• W Fakcie 2.1 nie wykorzystywaliśmy żadnych własności przestrzeni E

• W dowodzie Twierdzenia 2.2 wykorzystywaliśmy regularność miar na En

- tu wystarczy założyć, że E jest σ-zwartą przestrzenią metryczną tzn.E =

⋃∞n=1 En, En zwarte.

3 Twierdzenie o ciągłej modyfikacji

W poprzedniej części pokazaliśmy jakie warunki należy nałożyć na skończe-nie wymiarowe rozkłady procesu. Jednak udowodnione tam twierdzenie nic niemówi o własnościach trajektorii. Kiedy możemy oczekiwać np. ich ciągłości?Wcześniej jednak zdefiniujemy co to znaczy modyfikacja procesu.

Definicja 3.1 Niech X = (Xt)t∈T oraz Y = (Yt)t∈T będą dwoma procesamistochastycznymi określonymi na tej samej przestrzeni probabilistycznej. Powie-my, żea) X jest modyfikacją Y (lub X jest stochastycznie równoważny Y ) jeśli

∀t∈T P(Xt = Yt) = 1.

b) X i Y są nierozróżnialne, jeśli

P(∀t∈T Xt = Yt) = 1.

14

Page 15: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Zauważmy, że procesy nierozróżnialne są oczywiście stochastycznie równo-ważne. Ponadto dwa procesy stochastycznie równoważne mają ten sam rozkład.Poniższy przykład pokazuje, że z rozkładu procesu nie można wnioskować owłasnościach trajektorii.

PrzykładNiech Z ­ 0 będzie dowolną zmienną losową o rozkładzie bezatomowym tzn.

P(Z = z) = 0 dla wszystkich z ∈ R. Zdefiniujmy dwa procesy na T = [0, ∞)

Xt ≡ 0 oraz Yt(ω) =

0 t 6= Z(ω)1 t = Z(ω)

.

Wówczas Y jest modyfikacją X bo P(Xt 6= Yt) = P(Z = t) = 0. Zauważmyjednak, że wszystkie trajektorie Y są nieciągłe czyli w szczególności P(∀t6=0 Xt =Yt) = 0, a zatem X i Y nie są nierozróżnialne.

Fakt 3.1 Załóżmy, że T -przedział, X = (Xt)t∈T jest modyfikacją Y = (Yt)t∈T .Wówczas jeśli X, Y mają prawostronnie ciągłe trajektorie to są nierozróżnialne.

Dowód. Wybierzmy T0 ⊂ T przeliczalny gęsty w T zawierający dodatkowoprawy koniec T , jeśli T jest przedziałem domkniętym. Niech

A := ∀t∈T0 Xt = Yt,

wówczas P(A) = 1 jako przeliczalne przecięcie zbiorów pełnej miary. Ponadtojeśli ω ∈ A to dla dowolnego t ∈ T

Xt(ω) = lims→t+,s∈T0

Xs(ω) = lims→t+,s∈T0

Ys(ω) = Yt(ω)

czyliP(∀t∈T Xt = Yt) ­ P(A) = 1.

Twierdzenie 3.2 Załóżmy, że X = (Xt)t∈[a,b] jest procesem stochastycznymtakim, że

∀t,s∈[a,b] E|Xt − Xs|α ¬ C|t − s|1+β (2)

dla pewnych stałych dodatnich α, β, C. Wówczas istnieje modyfikacja X = (Xt)t∈[a,b],której wszystkie trajektorie są ciągłe. Co więcej prawie wszystkie trajektorie każ-dej modyfikacji X o ciągłych trajektoriach są holderowsko ciągłe z dowolnymwykładnikiem γ < β

α .

Przed przystąpieniem do dowodu warto przypomnieć definicję holderowskości.

Definicja 3.2 Funkcja f : [a, b] → R jest holderowsko ciągła z wykładnikiem γjeśli dla pewnej stałej C < ∞

|f(s) − f(t)| ¬ C|t − s|γ dla wszystkich s, t ∈ [a, b].

15

Page 16: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. Niech D = t ∈ [a, b] : t = 2−nk, n = 1, 2, . . . , k ∈ Z oznacza zbiórliczb dwójkowo wymiernycg z [a, b]. Wówczas D =

⋃∞n=0 Dn, gdzie Dn = t ∈

[a, b] : t = 2−nk, k ∈ Z. Na mocy nierówności Czebyszewa

P(|Xt − Xs| ­ ε) ¬ ε−αE|Xt − Xs|α ¬ Cε−α|t − s|1+β ,

w szczególności

P(|X k+12n

− X k2n

| ­ 2−γn) ¬ C2αγn|k + 12n

− k

2n|1+β = C2−n(1+β−αγ).

Zatem dla ustalonego n

P( maxa¬ k

2n < k+12n ¬b

|X k+12n

− X k2n

| ­ 2−γn) ¬∑

a¬ k2n < k+1

2n ¬b

P(|X k+12n

− X k2n

| ­ 2−γn)

¬ 2n(b − a)C2−n(1+β−αγ) = C(b − a)2−n(β−αγ).

Zdefiniujmy A := lim sup An, gdzie

An; = maxa¬2−nk<2−n(k+1)¬b

|X k+12n

− X k2n

| ­ 2−γn.

Ponieważ γα < β, więc

∞∑n=1

P(An) ¬∞∑

n=1

C(b − a)2−n(β−αγ) < ∞,

zatem na mocy Lemat Borela-Cantelli P(A) = 0 czyli P(B) = 1, gdzie

B := Ω \ A = ω : ∃n0(ω)∀n­n0(ω)∀a¬2−nk<2−n(k+1)¬b |X k+12n

− X k2n

| < 2−γn).

Załóżmy, że ω ∈ B, pokażemy wpierw indukcyjnie po m, że

∀n­n0(ω)∀m­n∀s,t∈Dm |s − t| ¬ 2−n ⇒ |Xs(ω) − Xt(ω)| ¬ 2m∑

j=n

2−γj (3)

Dla m = n, jeśli |s − t| ¬ 2−n to możemy przyjąć, że s = k2m , t = k+1

2m i|Xs − Xt| = |X k+1

2n− X k

2n| < 2−γn na mocy definicji B.

Załóżmy zatem, że (3) jest udowodnione dla m = n, n + 1, . . . , M − 1, poka-żemy, że zachodzi również dla m = M . Niech s, t ∈ DM , s < t, możemy założyć,że |s − t| > 2−M , bo inaczej działa argument jak w pierwszym kroku indukcji.Połóżmy

s = minu ∈ DM−1, u > s, t = maxu ∈ DM−1, u < t,

wówczas s ¬ s ¬ t ¬ t czyli |s − t| ¬ |s − t| ¬ 2−n, stąd wobiec założeniaindukcyjnego |Xs(ω) − Xt(ω)| ¬ 2

∑M−1j=n 2−γj . Ponadto |s − s| ¬ 2−M , |t − t| ¬

2−M czyli

|Xs(ω) − Xt(ω)| ¬ |Xs(ω) − Xt(ω)| + |Xs(ω) − Xs(ω)| + |Xt(ω) − Xt(ω)|

16

Page 17: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

¬ 2M−1∑j=n

2−γj + 2−γM + 2−γM = 2M∑

j=n

2−γj ,

co kończy dowód (3).Wiemy zatem, że dla ω ∈ B

s, t ∈ D, |s − t| ¬ 2−n, n ­ n0(ω) ⇒ |Xs(ω) − Xt(ω)| ¬ 2∞∑

j=n

2−γj = Cγ2−γn,

gdzie Cγ jest stałą zależną tylko od γ. Weźmy teraz dowolne s, t ∈ D takie, że|s − t| ¬ 2−n0(ω), wówczas istnieje n ­ n0(ω) spełniające 2−n−1 < |s − t| ¬ 2−n

i|Xs(ω) − Xt(ω)| ¬ Cγ2−γn ¬ Cγ |s − t|γ .

W końcu jeśli s, t ∈ D dowolne to możemy dobrać ciąg s = s0 < s1 < . . . <sk = t k ¬ 2n0(ω)(b − a) takie, że si ∈ D, |si+1 − si| ¬ 2−n0(ω) i otrzymamy

|Xs(ω)−Xt(ω)| ¬k∑

i=1

|Xsi(ω)−Xsi+1(ω)| ¬k∑

i=1

Cγ |si−si−1|γ ¬ (b−a)2n0(ω)Cγ |t−s|γ .

Udowodniliśmy zatem, że dla ω ∈ B funkcja t → Xt(ω) jest holderowsko ciągłana D, w szczególności jest jednostajnie ciągła i w każdym punkcie z [a, b] magranicę. Połóżmy

Xt(ω) =

lims→t,s∈D Xs(ω) w ∈ B0 w /∈ B

.

Wówczas wszystkie trajektorie X są ciągłe (a nawet holderowsko ciągłe z wy-kładnikiem γ). Z nierówności Czebyszewa łatwo wynika, że jeśli t ∈ [a, b],tn ∈ D, tn → t to Xtn

→ Xt według prawdopodobieństwa. Z drugiej stronyXtn

→ Xt p.n., a więc również i według prawdopodobieństwa. Z jednoznaczno-ści granicy wynika, że Xt = Xt p.n. czyli proces X jest modyfikacją X.

Na koniec zauważmy, że trajektorie X są holderowsko ciągłe z parametrem γa skoro wiemy, ze wszystkie ciągłe modfikacje X są nierozróżnialne to wszystkieciągłe modyfikacje X są holderowsko ciągłe z dowolnym wykładnikiem γ < α

β .Uwaga 3.1 Twierdzenie jest prawdziwe gdy przedział [a, b] zastąpimy nieskoń-czonym przedziałem np [0, ∞) lub (−∞, ∞), o ile Holderowskość trajektorii za-stąpimy lokalną Holderowskością (tzn. Holderowskością na każdym przedzialeskończonym). Co więcej wystarczy, by warunek (2) zachodził dla |s − t| < δgdzie δ > 0 jest ustaloną liczbą.

Dowód. Przedział nieskończony T można zapisać jako przeiczalną sumę⋃n[an, an+1] gdzie [an, an+1] są przedziałami długości nie większej od δ. Z twier-

dzenia (3.2) wynika istnienie modyfikacji X(n)t procesu X na [an, an+1] o cią-

głych trajektoriach. Niech An = X(n)an 6= Xan

, wówczas A =⋃

An ma miarę

17

Page 18: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

zero. Możemy więc położyć

Xt(ω) =

X(n)t (ω) t ∈ [an, an+1], ω ∈ A

0 ω /∈ A.

Wniosek 3.3 Istnieje proces Wienera tzn. proces spełniający warunki (W0)-(W3).

Dowód. Mamy E|Ws − Wt|4 = E|√

t − sW1|4 = (s − t)2EW 41 = 3(s − t)2 i

możemy użyć twierdzenia z β = 4, α = 1 i C = 3.

Wniosek 3.4 Prawie wszystkie trajektorie procesu Wienera są lokalnie Holderowskociągłe z dowolnym parametrem γ < 1/2.

Dowód. Mamy E|Ws −Wt|p = (s− t)p/2EW p1 = Cp(s− t)p/2 dla dowolnego

p < ∞. Stosując twierdzenie 3.2 z β = p, α = p − 1 dostajemy Holderowskąciągłość trajektorii z dowolnym γ < 1

2 − 1p . Biorąc p → ∞ dostajemy tezę.

Uwaga 3.2 Prawie wszystkie trajektorie procesu Wienera nie są jednostajnieciągłe na [0, ∞), nie mogą więc być globalnie Holderowskie z żadnym wykład-nikiem.

Uwaga 3.3 Założenia β > 0 nie można opuścić - wystarczy rozważyć procesPoissona dla którego E|Nt −Ns| = λ|t−s|, a oczywiście proces Poissona nie mamodyfikacji o ciągłych trajektoriach.

3.1 Inne rodzaje ciągłości procesów

W tym wykładzie koncentrowaliśmy uwagę nad procesami o trajektoriach cią-głych. Warto jednak wspomnieć o innych formach ciągłości procesów stocha-stycznych.

Definicja 3.3 Niech X = (Xt)t∈T będzie procesem stochastycznym. Mówimy,żea) proces X jest stochastycznie ciągły, jeśli

tn → t ⇒ Xtn

P→ Xt.

b) proces X jest ciągły wg p-tego momentu (ciągły w Lp), jeśli

tn → t ⇒ E|Xtn − Xt|p → 0.

Uwaga 3.4 Nietrudno wykazać, że zarówno ciągłość trajektorii jaki i ciągłośćwg p-tego momentu imlikują ciągłość stochastyczną procesu. Z pozostałych czte-rech implikacji między powyższymi pojęciami ciągłości procesu żadna nie jestprawdziwa bez dodatkowych założeń.

18

Page 19: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

4 Procesy gaussowskie

4.1 Rozkłady gaussowskie w Rd

Zaczniemy od przypomnienia definicji jednowymiarowej.

Definicja 4.1 Rzeczywista zmienna losowa X ma rozkład gaussowski (normal-ny) z parametrami a i σ (ozn. X ∼ N (a, σ2)) dla a ∈ R, σ ­ 0, jeśli

• X ma gęstość 1√2πσ

exp(− (x−a)2

2σ2 ) jeśli σ > 0;

• X ma rozkład δa czyli P(X = a) = 1 jeśli σ = 0.

Rozkład N (0, 1) nazywamy standardowym rozkładem normalnym.

Jak dobrze wiemy jeśli X ∼ N (a, σ2) to EX = a, Var(X) = σ2 oraz X ∼a + σg, gdzie g ∼ N (0, 1). Ponadto X ma funkcję charakterystyczną ϕX(t) =exp(ita − σ2t2/2).

Definiowanie gaussowskich rozkładów w Rd rozpoczniemy od rozkładu ka-nonicznego.

Definicja 4.2 Kanonicznym rozkładem gaussowskim w Rd, γd nazywamy roz-kład zmiennej X = (X1, . . . , Xd), gdzie X1, . . . , Xd są niezależnymi standardo-wymi zmiennymi gaussowskimi N (0, 1). Stosujemy też oznaczenie X ∼ N (0, Idd).

Łatwo sprawdzić, że rozkład γd ma gęstość

γd(dx) = (2π)− d2 e− |x|2

2 dx, |x|2 = x21 + . . . + x2

d,

EX = 0, Cov(X) = Id oraz ϕX(t) = e− |t|2

2 = e− 〈t,t〉2 , t ∈ Rd.

Definicja 4.3 Miarę µ na Rd nazywamy gaussowską, jeśli µ = U(γm) dla pew-nego przekształcenia afinicznego U : Rm → Rd (tzn. Ux = Ax + a, a ∈ Rd,A : Rm → Rd liniowe). Wektor losowy X w Rd nazywamy gaussowskim, jeślirozkład X jest gaussowski czyli

X ∼ UY = AY + a, Y = (Y1, . . . , Ym) ∼ N (0, Idm). (4)

Nietrudno policzyć, że dla X postaci (4) mamy EX = AEY + a = a,Cov(X) = AAT oraz

ϕX(t) = Eei〈t,AY +a〉 = ei〈t,a〉Eei〈AT t,Y 〉 = ei〈t,a〉− 〈AT t,AT t〉2 = ei〈t,a〉− 〈Bt,t〉

2 ,

gdzie B = AAT = Cov(X).Motywuje to następującą definicję

19

Page 20: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Definicja 4.4 Wektor losowy X w Rd nazywamy gaussowskim, jeśli ma funkcjęcharakterystyczną postaci

ϕX(t) = ei〈t,a〉− 〈Bt,t〉2

dla pewnego a ∈ Rd i macierzy symetrycznej n × n, nieujemnie określonej B.Używamy oznaczenia X ∼ N (a, B).

Fakt 4.1 Definicje 4.3 i 4.4 są równoważne.

Dowód. Wykazaliśmy już, że Definicja 4.3 impikuje definicję 4.4 z B =AAT . Wystarczy więc udowodnić przeciwną implikację. Każdą symetryczną ma-cierz można zdiagonalizować w bazie ortogonalnej, zatem macierz B ma postaćB = UDU−1, gdzie U jest unitarna, a D diagonalna. Z nieujemnej określonościB wynika nieujemność współczynników D. Jeśli położymy A := U

√DU−1 to

AAT = U√

DU−1(U√

DU−1)T = U√

DU−1(U−1)T√

DUT = UDU−1 = B.Stąd z rachunku poprzedzającego Definicję 4.4 i jednoznaczności funkcji cha-rakterystycznej wynika, że X ∼ AY + a dla Y ∼ N (0, Idd). Uwaga 4.1 Definicja 4.4 w szczególności pokazuje, że dla d = 1 otrzymujemyzwykłe rozkłady N (a, σ2).

Podamy jeszcze jedną definicję gaussowskości, która jest często najwygod-niejsza do weryfikowania gaussowskości.

Definicja 4.5 Wektor losowy X w Rd nazywamy gaussowskim, jeśli dla dowol-nego funkcjonału liniowego f : Rd → R, rzeczywista zmienna losowa f(X) jestgaussowska.

Fakt 4.2 Definicja 4.5 jest równoważna z poprzednimi.

Dowód. By wykazać, że Definicja 4.3 implikuje Definicję 4.5 wystarczy za-uważyć, że f(AY + a) = f(AY ) + f(a) jest afinicznym obrazem Y czyli ma roz-kład gaussowski. Przystąpmy do dowodu implikacji w drugą stronę. Załóżmy,że zmienna X spełnia założenia Definicji 4.5, wykażemy, że ma funkcję charak-terystyczną zgodną z Definicją 4.4. Niech t ∈ Rd, wówczas 〈t, X〉 ∼ N (at, σ2

t )czyli

ϕ〈t,X〉(s) = Eeis〈t,X〉 = eisat−σ2

ts2

2 .

Ponadto at = E〈t, X〉 = 〈t, EX〉 oraz

σ2t = Var(〈t, X〉) = E(〈t, X〉 − E(〈t, X〉))2 = E(〈t, X − EX〉)2

= E(d∑

i=1

ti(Xi − ai))2 =d∑

i,j=1

titjE(Xi − ai)(Xj − aj) = 〈Bt, t〉,

gdzie B = (E(Xi − ai)(Xj − aj))i,j = Cov(X). Stąd

ϕX(t) = ϕ〈t,X〉(1) = ei〈t,a〉− 〈Bt,t〉2 .

20

Page 21: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Uwaga 4.2 Można wykazać, że X ∼ N (a, B) ma gęstość wtedy i tylko wtedygdy macierz kowariancji B jest odwracalna i wówczas ta gęstość wynosi

gX(x) = (2π)− d2 |detC| 1

2 exp(〈C(x − a), x − a〉

2), gdzie C := B−1

Twierdzenie 4.3 Jeśli wektor losowy X = (X1, X2, . . . , Xd) ma rozkład gaus-sowski to zmienne X1, . . . , Xd są niezależne wtedy i tylko wtedy gdy są niesko-relowane tzn Cov(Xi, Xj) = 0.

Dowód. ⇒: Dowolne zmienne niezależne są nieskorelowane⇐: Obliczymy funkcję charakterystyczną zauważająć, że B = Cov(X) jest

macierzą diagonalną

ϕ(X1,...,Xd)(t) = ei〈t,a〉− 〈Bt,t〉2 =

d∏j=1

eitjaj−bj,j t2

j2 =

d∏j=1

ϕXj(tj),

co dowodzi niezależności Xj . Uwaga 4.3 Kluczowym założeniem w Twierdzeniu 4.3 jest gaussowskość wek-tora X, a nie tylko jego współrzędnych. Łatwo skonstruować dwie zależne zmien-ne X1, X2 takie, że Xi ∼ N (0, 1) oraz Cov(X1, X2) = 0.

Na koniec tego paragrafu sformułujemy centralne twierdzenie graniczne dlawektorów losowych w przypadku jednakowych rozkładów.

Twierdzenie 4.4 Jeśli X, X1, X2, . . . jest ciągiem niezależnych wektorów loso-wych w Rd o jednakowym rozkładzie takim, że E|X|2 < ∞ to

X1 + . . . + Xn − nEX√n

→ N (0, B) według rozkładu gdy n → ∞, gdzie B := Cov(X).

Dowód tego twierdzenia zasadniczo nie różni się od przypadku jednowymia-rowego.

4.2 Procesy gaussowskie

Definicja 4.6 Proces X = (Xt)t∈T nazywamy gaussowskim, jeśli wszystkieskończenie wymiarowe rozkłady X są gaussowskie czyli wektor (Xt1 , . . . , Xtn)ma rozkład gaussowski dla dowolnych t1, . . . , tn ∈ T .

Przykłady

1. Xt = f(t)g, gdzie f : T → R dowolne, a g ∼ N (0, 1).

2. Proces Wieniera (Wt)t­0.

3. Most Browna Xt = Wt − tW1, 0 ¬ t ¬ 1.

21

Page 22: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Wiemy, że wielowymiarowe rozkłady gaussowskie są wyznaczone przez dwaparametry - wektor wartości średniej i macierz kowariancji. Podobnie jest wprzypadku procesów, ale najpierw musimy wprowadzić odpowiednie definicje.

Definicja 4.7 Załóżmy, że X = (Xt)t∈T jest procesem stochastycznym całko-walnym z kwadratem tzn. EX2

t < ∞ dla wszystkich t ∈ T . Funkcję warto-ści średniej (wartość średnią procesu) X definiujemy wówczas wzorem m(t) :=EXt, t ∈ T , a funkcję kowariancji X wzorem K(t, s) := Cov(Xt, Xs), t, s ∈ T .Proces X nazywamy scentrowanym, jeśli m ≡ 0.

Fakt 4.5 Funkcja kowariancji procesu stochastycznego jest nieujemnie określo-na tzn.

∀t1,...,tn∈T ∀x1,...,xn∈R

n∑i,j=1

K(ti, tj)xixj ­ 0.

Dowód. Liczymy

n∑i,j=1

K(ti, tj)xixj =n∑

i,j=1

Cov(Xti , Xtj )xixj = Cov(n∑

i=1

Xtixi,n∑

j=1

Xtixi)

= Var(n∑

i=1

Xtixi) ­ 0.

Możemy teraz sformułować twierdzenie o istnieniu i jednoznaczności dla pro-cesów gaussowskich.

Twierdzenie 4.6 a) Niech m : T → R będzie dowolną funkcją, a K : T ×T → Rsymetryczną funkcją nieujemnie określoną. Wówczas istnieje proces gaussowskio wartości średniej m i funkcji kowariancji K.b) Jeśli dwa procesy gaussowskie mają takie same funkcje kowariancji i wartościśredniej to mają ten sam rozkład.

Dowód. a) Dla t1, . . . , tn ⊂ T określamy µt1,...,tnjako rozkład wekto-

ra gaussowskiego (X1, . . . , Xn) takiego, że EXi = m(ti) oraz Cov(Xi, Xj) =K(ti, tj) (wektor taki istnieje bo macierz (K(ti, tj)i,j¬n jest symetryczna nie-ujemnie określona. Łatwo sprawdzić (wykorzystując to, że n-wymiarowy rozkładgaussowski jest zadany przez dwa parametry), że rodzina miar (µt1,...,tn) spełniawarunki zgodności, zatem z Twierdzenia 2.2 wynika istnienie szukanego procesu.

b) Ponieważ n-wymiarowe rozkłady gaussowskie są wyznaczone przez wektorśredniej i macierz kowariancji, więc dane dwa procesy mają te same rozkładyskończenie wymiarowe, czyli na mocy Faktu 2.1 mają te same rozkłady.

Wniosek 4.7 Proces (Wt)t­0 jest procesem Wienera wtedy i tylko wtedy, gdyjest scentrowanym procesem gaussowskim o ciągłych trajektoriach i funkcji ko-wariancji K(t, s) = min(t, s).

22

Page 23: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. ⇒: Dla 0 ¬ t ¬ s mamy Cov(Wt, Ws) = Cov(Wt, Wt)+Cov(Wt, Ws−Wt) = t + 0 = min(t, s).

⇐: Jeśli Xt jest scentrowanym procesem gaussowskim o funkcji kowariancjimin(t, s) to na mocy Twierdzenia 4.6 X ma ten sam rozkład co proces Wiene-ra czyli spełnia warunki (W0)-(W2), a ponieważ ma ciągłe trajektorie to jestprocesem Wienera.

Uwaga 4.4 Załóżmy, że X jest ośrodkową przestrzenią Banacha. Powiemy, żezmienna losowa o wartościach w X ma rozkład gaussowski, jeśli dla dowolnegofunkcjonału ciągłego x∗ ∈ X∗ zmienna rzeczywista x∗(X) ma rozkład gaussow-ski. Proces Wienera na [0, 1] można traktować jako gaussowską zmienną losowąo wartościach w C[0, 1].

5 Filtracje, Momenty Zatrzymania

W tej części będziemy zakładać, że T ⊂ R (najczęściej rozważane w praktyceprzypadki to T będące przedziałem lub podzbiorem liczb całkowitych).

Definicja 5.1 Filtracją (Ft)t∈T przestrzeni probabilistycznej (Ω, F , P) nazywa-my rosnący rodzinę σ-ciał zawartych w F tzn. Ft ⊂ Fs dla t ¬ s, t, s ∈ T .

Przykład (filtracja generowana przez proces stochastyczny)Niech X = (Xt)t∈T będzie procesem stochastycznym. Filtracją generowaną

przez X nazywamy rodzinę (FXt )t∈T daną wzorem FX

t = σ(Xs : s ¬ t).

Definicja 5.2 Momentem zatrzymania (momentem Markowa, czasem zatrzy-mania) względem filtracji (Ft)t∈T nazywamy zmienną losową o wartościach wT ∪ ∞ taką, że τ ¬ t ∈ Ft dla wszystkich t ∈ T .

Zdarzenia z sigma ciała Ft możemy interpretować jako zdarzenia obserwo-walne do chwili t. Wówczas moment zatrzymania to strategia przerwania eks-perymentu losowego (np. zakończenia udziału w pewnej grze) taka, że decyzję oprzerwaniu w chwili t podejmujemy tylko na podstawie obserwacji dostępnychw tym czasie.

Definicja 5.3 Proces X = (Xt) nazywamy zgodnym z filtracją (Ft)t∈T bądźFt-adaptowalnym, jeśli dla wszystkich t ∈ T , Xt jest Ft mierzalne.

Przykład. Dla zbioru A ⊂ R i procesu stochastycznego (Xt)t∈T określmy

τA = inft ∈ T : Xt ∈ A.

Jeśli T jest lewostronnie domkniętym przedziałem, A-zbiorem domkniętym, a(Xt)t∈T Ft-adaptowalnym procesem o ciągłych trajektoriach to τA jest momen-tem zatrzymania względem filtracji Ft

23

Page 24: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. Niech T0 ⊂ T będzie gęstym podzbiorem T zawierającym lewykoniec. Z domkniętości zbioru A i ciągłości X dostajemy dla t ∈ T

τA ¬ t = ∃s¬t Xs ∈ A =∞⋂

n=1

⋃s¬t,s∈T0

Xs ∈ A1/n ∈ Ft,

gdzieAε := x ∈ Rn : d(x, A) < ε (ε-otoczka zbioru A).

Uwaga 5.1 Jeśli w powyższym przykładzie A będzie zbiorem otwartym to τA

nie musi być momentem zatrzymania względem filtracji (Ft)t∈T , ale musi byćmomentem zatrzymania względem filtracji (Ft+)t∈T , gdzie

Ft+ :=⋂s>t

Fs.

Powyższa uwaga motywuje poniższą definicję, która ma nieco technicznycharakter, ale jest powszechnie używana w teorii procesów.

Definicja 5.4 Przyjmijmy, że T = [a, ∞). Filtrację (Ft)t∈T nazywamy pra-wostronnie ciągłą, jeśli Ft+ = Ft dla wszystkich t ∈ T . Mówimy, że filtracja(Ft)t∈T spełnia zwykłe warunki, jeślia) jest prawostronnie ciągła,b) dla wszystkich t, Ft zawiera wszystkie zbiory miary zero, tzn. jeśli A ∈ F ,P(A) = 0 to A ∈ Ft.

Uwaga 5.2 Zachodzi następujące bardzo mocne twierdzenie Dellacherie: Za-łóżmy, że T = [a, ∞), proces X jest progresywnie mierzalny, a (Ft)t∈T jestprawostronnie ciągłą filtracją oraz wszystkie Ft są zupełne (tzn. B ⊂ A ∈ Ft,P(A) = 0 ⇒ B ∈ Ft). Wówczas τA jest momentem zatrzymania dla dowolnegoA ∈ B(R).

Definicja 5.5 Niech τ będzie momentem zatrzymania względem filtracji (Ft)t∈T .Definiujemy σ-ciało zdarzeń obserwowalnych do chwili τ wzorem

Fτ := A ∈ F∞ := σ(⋃t∈T

Ft) : ∀t∈T A ∩ τ ¬ t ∈ Ft.

Fakt 5.1 a) Zbiór Fτ jest σ-ciałem.b) Jeśli τ ¬ σ to Fτ ⊂ Fσ.c) Zmienna losowa τ jest Fτ mierzalna.

Dowód. a) Zbiór Ω ∈ Fτ , bo Ω ∩ τ ¬ t = τ ¬ t ∈ Ft. Jeśli A ∈ Fτ

to A′ ∩ τ ¬ t = τ ¬ t \ A ∩ τ ¬ t ∈ Ft czyli A′ ∈ Fτ . Jeśli An ∈ Fτ to(⋃

n An) ∩ τ ¬ t =⋃

n(An ∩ τ ¬ t) ∈ Ft czyli⋃

n An ∈ Fτ .b) Weźmy A ∈ Fτ , wówczas dla t ∈ T , A ∩ σ ¬ t = A ∩ τ ¬ t ∩ σ ¬

t ∈ Ft czyli A ∈ Fσ.c) Wystarczy pokazać, że τ ¬ s ∈ Fτ , ale τ ¬ s ∩ τ ¬ t = τ ¬

s ∧ t = Fs∧t ⊂ Ft.

24

Page 25: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Fakt 5.2 Załóżmy, że τ i σ są momentami zatrzymania. Wówczas Fτ∧σ =Fτ ∩ Fσ oraz zdarzenia τ < σ, σ < τ, τ ¬ σ, σ < τ, τ = σ należą doFτ∧σ.

Dowód. Zauważmy, że τ ∧ σ jest momentem zatrzymania oraz τ ∧ σ ¬ τ iτ ∧ σ ¬ σ, zatem na mocy Faktu 5.1 dostajemy Fτ∧σ ⊂ Fτ ∩ Fσ. Na odwrótjeśli A ∈ Fτ ∩ Fσ to A ∩ τ ∧ σ ¬ t = A ∩ (τ ¬ t ∪ σ ¬ t) = (A ∩ τ ¬t) ∪ (A ∩ σ ¬ t) ∈ Ft, czyli A ∈ Fτ∧σ. Dalszą część faktu pozostawiamy doudowodnienia na ćwiczeniach.

Okazuje się, że adaptowalność procesu nie gwarantuje np. mierzalności zmien-nych Xτ dla wszystkich momentów zatrzymania τ . Dlatego wprowadzimy jeszczejedną techniczną definicję.

Definicja 5.6 Proces X = (Xt)t∈T nazywamy progresywnie mierzalnym wzglę-dem filtracji (Ft)t∈T , jeśli dla każdego t ∈ T , funkcja (s, ω) → Xs(ω) traktowanajako funkcja ze zbioru T ∩ (−∞, t] × Ω w R jest mierzalna względem σ-algebryB(T ∩ (−∞, t]) ⊗ Ft. Inaczej

∀t∈T ∀A∈B(R) (s, ω) ∈ T × Ω: s ¬ t, Xs(ω) ∈ A ∈ B(T ∩ (−∞, t]) ⊗ Ft.

Fakt 5.3 Załóżmy, że T jest przedziałem oraz dany jest proces X = (Xt)t∈T

oraz filtracja (Ft)t∈T .a) Jeśli proces X jest progresywnie mierzalny względem (Ft) to jest Ft-adaptowalny.b) Jeśli proces X jest Ft-adaptowalny oraz ma prawostronnie ciągłe trajektorieto jest progresywnie mierzalny względem (Ft).

Dowód. a) Zbiór ω : Xt(ω) ∈ A jest przekrojem zbioru (s, ω) ∈ T ×Ω: s ¬ t, Xs(ω) ∈ A, a zatem należy do Ft.

b) Ustalmy t ∈ T i połóżmy dla s ∈ T , s ¬ t, X(n)s := Xt−2−nk, gdzie k jest

liczbą całkowitą taką, że t − 2−n(k + 1) < s ¬ t − 2−nk. Wówczas

(s, ω) ∈ T×Ω: s ¬ t, X(n)s (ω) ∈ A =

∞⋃k=0

(T∩(t−k + 12n

, t− k

2n])×ω : Xt− k

2n∈ A

∈ B(T ∩ (−∞, t]) ⊗ Ft.

Zatem funkcja X(n)s (ω), s ∈ T ∩ (−∞, t], ω ∈ Ω jest B(T ∩ (−∞, t])⊗Ft mierzal-

na. Wobec prawostronnej ciągłości X mamy Xs(ω) = limn→∞ X(n)s (ω), zatem

funkcja Xs(ω), s ∈ T ∩ (−∞, t], ω ∈ Ω jest B(T ∩ (−∞, t]) ⊗ Ft mierzalna jakogranica funkcji mierzalnych.

Fakt 5.4 Załóżmy, że X = (Xt)t∈T jest procesem progresywnie mierzalnymwzględem filtracji (Ft)t∈T , a τ jest momentem zatrzymania. Wówczas zmiennalosowa Xτ określona na zbiorze τ < ∞ ∈ Fτ jest Fτ mierzalna. Ponadtoproces zatrzymany w chwili τ , Xτ := (Xt∧τ )t∈T jest progresywnie mierzalny.

25

Page 26: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. Odwzorowanie

(s, ω) → (τ(ω) ∧ s, ω) : T ∩ (−∞, t] → T ∩ (−∞, t]

jest mierzalne względem σ-algebry B(T ∩ (−∞, t]) ⊗ Ft) Jeśli złożymy je z od-wzorowaniem

(s, ω) → Xs(ω) mierzalnym z (T ∩ (−∞, t] × Ω, B(T ∩ (−∞, t]) ⊗ Ft) w R

to otrzymamy odwzorowanie

(s, ω) → Xτ(ω)∧s(ω) mierzalne z (T ∩ (−∞, t] × Ω, B(T ∩ (−∞, t]) ⊗ Ft) w R.

Stąd wynika progresywna mierzalność procesu Xτ . By zakończyć dowód za-uważmy, że

Xτ ∈ A ∩ τ ¬ t = Xτ∧t ∈ A ∩ τ ¬ t ∈ Ft

na mocy progresywnej mierzalności (a właściwie adaptowalności) Xτ .

6 Martyngały z czasem ciągłym

6.1 Definicje i przykłady

Definicja 6.1 Niech T ⊂ R, a (Ft)t∈T będzie filtracją. Mówimy, że (Xt, Ft)t∈T

jest martyngałem (odp. podmartyngałem, nadmartyngałem) lub, że (Xt)t∈T jestmartyngałem (pod-, nad-) względem filtracji (Ft), jeślia) dla wszystkich t ∈ T , Xt jest Ft adaptowalny i E|Xt| < ∞;b) dla dowolnych s, t ∈ T, s < t, E(Xt|Fs) = Xs p.n. (odp. ­ dla podmartyngałui ¬ dla nadmartyngału).

Przykłady

1. (Wt)t­0 jest martyngałem względem naturalnej filtracji FWt = σ(Ws : s ¬

t).Istotnie dla t > s mamy z niezależności

E(Wt|Fs) = E(Ws|Fs)E(Wt − Ws|Fs) = Ws + E(Wt − Ws) = Ws p.n..

2. Jeśli X jest całkowalną zmienną losową, a Ft dowolną filtracją to Xt :=E(X|Ft) jest martyngałem.Sprawdzamy dla t > s

E(Xt|Fs) = E(E(X|Ft)|Fs) = E(X|Fs) = X p.n..

3. (W 2t )t­0 jest podmartyngałem, a (W 2

t − t)t­0 martyngałem względem na-turalnej filtracji FW

t = σ(Ws : s ¬ t).Liczymy dla t > s

E(W 2t |Fs) = E(W 2

s |Fs) + E(2Ws(Wt − Ws)|Fs) + E((Wt − Ws)2|Fs)

= W 2s + 2WsE(Wt − Ws) + E(Wt − Ws)2 = W 2

s + t − s p.n..

26

Page 27: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Fakt 6.1 Załóżmy, że (Xt, Ft) jest martyngałem (odp. podmartyngałem), zaśf : R → R funkcją wypukłą (odp. wypukłą i niemalejącą) taką, że E|f(Xt)| < ∞dla wszystkich t. Wówczas (f(Xt), Ft) jest podmartyngałem.

Dowód. Z nierówności Jensena (Lemat A.3) mamy E(f(Xt|Fs) ­ f(E(Xt|Fs),a ostatnia zmienna jest równa f(Xs) w przypadku martyngału i nie mniejszaniż f(Xs) dla podmartyngału.

Przypomnijmy definicję funkcji harmonicznych.

Definicja 6.2 Funkcję f : Rn → R nazywamy podharmoniczną (odp. harmo-niczną, nadharmoniczną) jeśli

∀x∈Rn ∀r­0 f(x) ¬ 1|Sn−1|

∫Sn−1

f(x + ry)dσ(y)(odp. =, ­),

gdzie σ(y) jest miarą powierzchniową na sferze, a |Sn−1| =∫

Sn−1 dσ(y) =2πn/2(Γ(n/2))−1.

Uwaga 6.1 Funkcja gładka jest harmoniczna (odp. pod-,nad-) wtedy i tylkowtedy gdy ∆f = 0 (odp. ­, ¬). Dla n = 1 warunek podharmoniczności jestrównoważny wypukłości. Funkcja f(x) = − ln ‖x − x0‖ jest nadharmoniczna naR2, a funkcja f(x) = ‖x − x0‖2−d nadharmoniczna na Rd dla d > 2.

Fakt 6.2 Niech Wt = (W (1)t , . . . , W

(d)t ) będzie d-wymiarowym procesem Wiene-

ra, FWt = σ(Ws : s ¬ t), zaś f : Rd → R funkcją harmoniczną (odp. nad-, pod-)

taką, że E|f(Wt)| < ∞ dla t ­ 0. Wówczas (f(Wt), FWt ) jest martyngałem

(odp. nad-, pod-).

Dowód. Liczymy dla t > s

E(f(Wt)|Fs) = E(f(Ws + (Wt − Ws))|Fs)

= (2π(t − s))−d/2∫

Rd

f(Ws + x)e− |x|2

2(t−s) dx

= (2π(t − s))−d/2∫ ∞

0rd−1e− r2

2(t−s) )(∫

Sd−1f(Ws + y)dσ(y))dr

= (2π(t − s))−d/2|Sd−1|f(Ws)∫ ∞

0rd−1e− r2

2(t−s) )dr = cdf(Ws) p.n..

By zauważyć, że cd = 1 przeprowadzamy albo bezpośredni rachunek, albo pod-stawiamy powyżej f ≡ 1.

27

Page 28: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

6.2 Nierówności maksymalne

Zacznijmy od podstawowego lematu pochodzącego od Dooba.

Lemat 6.3 Załóżmy, że (Xn, Fn)0¬1¬N jest martyngałem (odp. nad-, pod-),zaś 0 ¬ τ ¬ σ ¬ N dwoma momentami zatrzymania. Wówczas

E(Xσ|Fτ ) = Xτ p.n. (odp. ¬, ­).

Dowód. Musimy pokazać, że dla A ∈ Fτ , EXτ IA = EXσIA. PołóżmyAk := A ∩ τ = k dla k = 0, 1, . . . , N . Mamy

(Xσ−Xτ )IAk= (Xσ−Xk)IAk

=σ−1∑i=k

(Xi+1−Xi)IAk=

N∑i=k

(Xi+1−Xi)IAk∩σ>i,

zatem

E(Xσ − Xτ )IAk=

N∑i=k

E(Xi+1 − Xi)IAk∩σ>i = 0,

gdyż Ak ∩ σ > i ∈ Fi. Stąd

E(Xσ − Xτ )IA =N∑

k=0

E(Xσ − Xτ )IAk= 0.

Uwaga 6.2 Lemat 6.3 nie jest prawdziwy, jeśli nie założymy ograniczonościmomentów zatrzymania, np. biorąc Xn =

∑nk=1 εn, gdzie εn niezależne zmienne

losowe takie, że P(εn = ±1) = 1/2, Fn = σ(ε1, . . . , εn), τ = 0, σ = infn : Xn =1 widzimy, że EXτ = 0 6= 1 = EXσ.

Lemat 6.4 Niech (Xn, Fn)0¬n¬N będzie podmartyngałem, wówczas dla wszyst-kich λ ­ 0 mamya) λP(max0¬n¬N Xn ­ λ) ¬ EXN Imax0¬n¬N Xn­λ ¬ EX+

N ,b) λP(min0¬n¬N Xn ¬ −λ) ¬ EXN Imin0¬n¬N Xn>−λ − EX0 ¬ EX+

N − EX0.

Dowód. a) Niech τ := infn : Xn ­ λ ∧ N , z lematu 6.3 dostajemy (wobecτ ¬ N)

EXN ­ EXτ = EXτ Imax0¬n¬N Xn­λ + EXτ Imax0¬n¬N Xn<λ

­ λP( max0¬n¬N

Xn ­ λ) + EXN Imax0¬n¬N Xn<λ

i po przeniesieniu wartości oczekiwanych na jedną stronę dostajemy postulowanąnierówność.

b) Definiujemy τ := infn : Xn ¬ −λ ∧ N , z lematu 6.3 dostajemy (wobecτ ­ 0)

EX0 ¬ EXτ = EXτ Imin0¬n¬N Xn¬−λ + EXτ Imin0¬n¬N Xn>−λ

¬ −λP( min0¬n¬N

Xn ¬ −λ) + EXN Imin0¬n¬N Xn>−λ

i znów wystarczy pogrupować wartości oczekiwane.

28

Page 29: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Wniosek 6.5 Jeśli (Xn, Fn)0¬n¬N jest martyngałem, bądź nieujemnym pod-martyngałem, toa) ∀p­1 ∀λ­0 λpP(max0¬n¬N |Xn| ­ λ) ¬ E|XN |p,b) ∀p>1 E|XN |p ¬ E max0¬n¬N |Xn|p ¬ ( p

p−1 )pE|XN |p.

Dowód. a) Funkcja f(t) = |t|p jest wypukła, niemalejąca na R+, stąd namocy Faktu 6.1 |Xn|p jest nieujemnym podmartyngałem zatem z Lematu 6.4mamy

λpP( max0¬n¬N

|Xn| ­ λ) ¬ E|XN |pImax0¬n¬N |Xn|p­λp ¬ E|XN |p.

b) Niech X∗ := max0¬n¬N |Xn|, z rachunku przeprowadzonego powyżej

λP(X∗ ­ λ) ¬ E|XN |IX∗­λ.

Stosując kolejno wzór na całkowanie przez części, twierdzenie Fubiniego i nie-równość Holdera dostajemy

E max0¬n¬N

|Xn|p = p

∫ ∞

0λp−1P(X∗ ­ λ)dλ ¬ p

∫ ∞

0λp−2E|XN |IX∗­λdλ

= pE|XN |∫ X∗

0λp−2dλ

¬ p

p − 1E|XN |(X∗)p−1 ¬ p

p − 1(E|XN |p)1/p(E(X∗)p)(p−1)/p.

Jeśli E|XN |p < ∞ to E|Xn|p ¬ E|XN |p < ∞ dla 0 ¬ n ¬ N oraz E(X∗)p ¬E

∑Nn=0 |Xn|p < ∞. Dzieląc więc otrzymaną poprzednio nierówność stronami

przez (E(X∗)p)(p−1)/p dostajemy

(E(X∗)p)1/p ¬ p

p − 1(E|XN |p)1/p.

Udowodnimy teraz nierówność maksymalną Dooba w przypadku ciągłym.

Twierdzenie 6.6 Załóżmy, że T jest przedziałem, z (Xt, Ft)t∈T martyngałemlub nieujemnym podmartyngałem, o prawostronnie ciągłym trajektoriach. Wów-czasa) ∀p­1 ∀λ­0 λpP(supt∈T |Xt| ­ λ) ¬ supt∈T E|Xt|p,b) ∀p>1 supt∈T E|Xt|p ¬ E supt∈T |Xt|p ¬ ( p

p−1 )p supt∈T E|Xt|p.

Uwaga 6.3 Oczywiście jeśli T zawiera element maksymalny tmax to przy za-łożeniach twierdzenia supt∈T E|Xt|p = E|Xtmax |p.

Dowód. Jeśli D jest skończonym podzbiorem T to na podstawie Wniosku6.5 dostajemy

λpP(supt∈D

|Xt| ­ λ) ¬ supt∈D

E|Xt|p ¬ supt∈T

E|Xt|p.

29

Page 30: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Niech T0 będzie gęstym podzbiorem T zawierającym prawy koniec T (o ile takiistnieje), zaś Dn wstępującym ciągiem skończonych podzbiorów T0 takim, że⋃

n Dn = T0. Wówczas dla dowolnego λ > 0 dostajemy na mocy prawostronnejciągłości

λpP(supt∈T

|Xt| > λ) = λpP(supt∈T0

|Xt| > λ)

= limn→∞

λpP( supt∈Dn

|Xt| > λ) ¬ supt∈T

E|Xt|p.

Biorąc ciąg λn λ postulowaną w a) nierówność. Nierówność z punktu b)wynika z Wniosku 6.5 w podobny sposób.

Uwaga 6.4 Punkt b) Twerdzenia 6.6 nie zachodzi dla p = 1 - można skon-struować martyngał dla którego supt E|Xt| < ∞, ale E supt |Xt| = ∞. Zachodzijednak (przy założeniach Twierdzenia 6.6) nierówność

E supt∈T

|Xt| ¬ e

e − 1(1 + sup

t∈TE|Xt| ln+ |Xt|.

Wniosek 6.7 Dla dowolnego u, s > 0 zachodzi

P( sup0¬t¬s

Wt ­ u) ¬ e− u22s .

Dowód. Ustalmy λ > 0, wówczas Mt := exp(λWt − λ2t2 ) jest martynga-

łem względem filtracji FWt generowanej przez proces Wienera. Stąd na mocy

Twierdzenia 6.6 a) i nieujemności Mt dostajemy

P( sup0¬t¬s

Wt ­ u) ¬ P( sup0¬t¬s

Mt ­ eλu− λ2s2 )

¬ e−λu+ λ2s2 sup

0¬t¬sE|Ms| = e−λu+ λ2s

2 )EM0 = e−λu+ λ2s2 ).

ZatemP( sup

0¬t¬sWt ­ u) ¬ inf

λ>0e−λu+ λ2s

2 = e− u22s .

7 Twierdzenia o zbieżności i regularności

W tej części udowodnimy twierdzenia dotyczące zbieżności martyngałów z cza-sem ciągłym oraz pokażemy, że podmartyngały mają regularną modyfikację.

30

Page 31: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

7.1 Przejścia w dół przez przedział

Definicja 7.1 Niech T ⊂ R i f : T → R oraz α < β. Dla skończonego podzbioruF ⊂ T definiujemy

τ1 := inft ∈ F : f(t) ­ β oraz σ1 := inft ∈ F : t > τ1, f(t) ¬ α

i dalej indukcyjnie dla i = 1, 2, . . .

τi+1 := inft ∈ F : t > σi, f(t) ­ β oraz σi+1 := inft ∈ F : t > τi, f(t) ¬ α.

KładziemyDF (f, [α, β]) := supj : σj < ∞ ∧ 0

i definiujemy liczbę przejść w dół funkcji f przez przedział [α, β]

DT (f, [α, β]) := supDF (f, [α, β]) : F ⊂ T skończone.

Lemat 7.1 Ciąg liczbowy xn jest zbieżny do pewnej granicy skończonej lub niewtedy i tylko wtedy gdy DN((xn), [α, β]) < ∞ dla dowolnych liczb wymiernychα < β.

Dowód. ⇒: Jeśli limn→∞ xn = g to albo g > α i xn > α dla dużych n, albog < β i wtedy xn < β dla dużych n.

⇐: Jeśli ciąg xn nie ma granicy to lim infn→ xn < lim supn→ xn. Może-my wtedy znaleźć liczby wymierne α, β takie, że lim infn→ xn < α < β <lim supn→ xn i nietrudno zauważyć, że wtedy DN((xn), [α, β]) = ∞.

Następny lemat jest prostą modyfikacją Lematu 7.1, więc przytoczymy gobez dowodu.

Lemat 7.2 Jeśli f : [a, b]∩Q → R jest funkcją ograniczoną taką, że D[a,b]∩Q(f, [α, β]) <∞ dla dowolnych liczb wymiernych α < β to granice

∀t∈[a,b) f(t+) := lims→t+,s∈Q

f(s) i ∀t∈(a,b] f(t−) := lims→t−,s∈Q

f(s)

istnieją i są skończone.

Lemat 7.3 Załóżmy, że X = (Xt)t∈T jest podmartyngałem względem pewnejfiltracji, a F jest przeliczalnym podzbiorem T , wówczas

EDF (X, [α, β]) ¬ supt∈F

E(Xt − β)+

β − α.

Dowód. Stosując twierdzenie Lebesgue’a o zbieżności monotonicznej widzi-my, że wystarczy udowodnić lemat dla skończonych zbiorów F , dla uproszczenianotacji możemy oczywiście przyjąć, że F = 1, 2, . . . , N. Zauważmy, że (przyoznaczeniach jak w Definicji 7.1)

Xτi∧N −Xσi∧N =

Xτi − Xσi ­ β − α gdy σi < ∞Xτi − XN ­ β − XN ­ −(XN − β)+ gdy τi < ∞ = σi

XN − XN = 0 gdy τi = ∞.

31

Page 32: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Zatem

N∑i=1

(Xτi∧N − Xσi∧N ) ­ (β − α)DF (X, [α, β]) − (XN − β)+.

Ponieważ na mocy Lematu 6.3 EXτi∧N¬ EXσi∧N

, więc

0 ­ EN∑

i=1

(Xτi∧N − Xσi∧N ) ­ E(β − α)DF (X, [α, β]) − E(XN − β)+.

7.2 Zbieżność prawie na pewno

Twierdzenie 7.4 Załóżmy, że (Xn)n∈N jest podmartyngałem takim, że supn∈N EX+n <

∞ (lub nadmartyngałem takim, że supn∈N EX−n < ∞), wówczas X = limn→∞ Xn

istnieje i jest skończona p.n. oraz E|X| < ∞.

Dowód. Oczywiście wystarczy udowodnić przypadek podmartyngału. Dlaustalonego α < β na podstawie Lematu 7.3 mamy

EDN(Xn, [α, β]) ¬ 1β − α

supn

E(Xn − β)+ < ∞

zatem P(DN(Xn, [α, β]) = ∞) = 0. Niech

A :=⋂

α,beta∈Q,α<β

DN(Xn, [α, β]) < ∞,

wówczas P(A) = 1, bo A jest przecięciem przeliczalnej liczby zbiorów pełnejmiary. Jeśli ω ∈ A to dla dowolnych liczb wymiernych α < β, DN(Xn(ω), [α, β]) <∞ czyli na podstawie Lematu 7.1 granica X(ω) := limn→∞ Xn(ω) istnieje(choć apriori może być nieskończona). Zauważmy, że E|Xn| = 2EX+

n − EXn ¬2EX+

n − EX0, zatem supn E|Xn| < ∞. Z Lematu Fatou

E|X| = E lim infn→∞

|Xn| ¬ lim infn→∞

E|Xn| ¬ supn

E|Xn| < ∞

czyli zmienna X jest całkowalna, a więc w szczególności skończona p.n. .

Twierdzenie 7.5 Załóżmy, że T jest przedziałem, a (Xt)t∈T podmartyngałem(lub nadmartyngałem). Wówczas istnieje zbiór A taki, że P(A) = 1 oraz dlawszystkich ω ∈ A i t ∈ T poza odpowiednio lewym i prawym końcami T granice

Xt+(ω) = lims→t+,s∈Q

Xs(ω) oraz Xt−(ω) = lims→t−,s∈Q

Xs(ω)

istnieją i są skończone.

Dowód. Bez straty ogólności możemy zakładać, że Xt jest podmartynga-łem. Ponieważ możemy znaleźć niemalejący ciąg przedziałów [an, bn] taki, że

32

Page 33: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

T =⋃

n[an, bn], więc dowód wystarczy przeprowadzić w przypadku T = [a, b].Zauważmy, że

supt∈[a,b]

]Ex(Xt − β)+ = E(Xb − β)+ < ∞

zatem na z Lematu 7.3 dostajemy

∀α<β P(D[a,b]∩Q(Xt, [α, β]) = ∞) = 0.

Ponadto na mocy Lematu 6.4 dla dowolnego λ > 0

λP( supt∈[a,b]∩Q

Xt ­ λ) ¬ supt∈[a,b]∩Q

EX+t = EX+

b < ∞

oraz

λP( inft∈[a,b]∩Q

Xt ¬ −λ) ¬ supt∈[a,b]∩Q

EX+t − EXa = EX+

b − EXa < ∞.

StądP(−∞ < inf

t∈[a,b]∩QXt ¬ sup

t∈[a,b]∩QXt < ∞) = 1.

Niech

A :=⋂

α,beta∈Q,α<β

D[a,b]∩Q(Xn, [α, β]) < ∞ ∩ supt∈[a,b]∩Q

|Xt| < ∞,

wtedy P(A) = 1. By wykazać, że zbiór A ma postulowane własności wystarczyskorzystać z Lematu 7.2.

Twierdzenie 7.6 Załóżmy, że (Xt)t­0 jest podmartyngałem o prawostronnieciągłych trajektoriach takim, że supt­0 EX−

t < ∞. Wówczas X = limt→∞ Xt

istnieje i jest skończony p.n. oraz E|X| < ∞.

Dowód. Wystarczy dowieść, że istnieje limt→∞,t∈Q Xt, a to dowodzimy wsposób analogiczny jak w poprzednich dwu twierdzeniach.

Wniosek 7.7 Załóżmy, że (Xt)t­0 jest niedodatnim podmartyngałem (lub nie-ujemnym nadmartyngałem) o prawostronnie ciągłych trajektoriach, wówczasX = limt→∞ Xt istnieje i jest skończony p.n. oraz E|X| < ∞.

7.3 Jednostajna całkowalność i zbieżność w Lp

Definicja 7.2 Rodzinę zmiennych losowych (Xi)i∈I nazywamy jednostajnie cał-kowalną, jeśli

limC→∞

supi∈I

E|Xi|I|Xi|>C = 0.

Fakt 7.8 Rodzina zmiennych losowych (Xi)i∈I jest jednostajnie całkowalna wte-dy i tylko wtedy gdy spełnione są następujące dwa warunkia) supi∈I E|Xi| < ∞,b) ∀ε>0∃δ>0 P(A) ¬ δ ⇒ supi∈I E|Xi|IA ¬ ε.

33

Page 34: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. ⇒: Ustalmy ε > 0 i dobierzmy C takie, że supi∈I E|Xi|I|Xi|>C ¬ε/2. Wówczas

∀i∈I E|Xi| ¬ C + E|Xi|I|Xi|>C ¬ C + ε/2 < ∞

oraz jeśli P(A) < δ := ε2C to

E|Xi|IA ¬ CP(A) + E|Xi|I|Xi|>C ¬ Cδ +ε

2= ε.

⇐: Niech a := supi∈I E|Xi| oraz δ > 0 będzie takie, że supi∈I E|Xi|IA ¬ εdla P(A) ¬ δ. Wówczas jeśli C = a/δ to P(|Xi| > C) < a/C = δ dla dowolnegoi ∈ I czyli E|Xi|I|Xi|>C ¬ ε.

Przykłady rodzin jednostajnie całkowalnych

1. Rodzina jednoelementowa Y taka, że E|Y | < ∞.

Dowód. Oczywiście limC→∞ E|Y |I|Y |>C = 0.

2. Rodzina wspólnie ograniczona przez zmienną całkowalną tzn. rodzina (Xi)i∈I

taka, że ∀i∈I |Xi| ¬ Y oraz EY < ∞.

Dowód. Wykorzystujemy Fakt 7.8, poprzedni przykład i oczywistą ob-serwację E|Xi|IA ¬ E|Y |IA.

3. Rodzina uśrednień ustalonej całkowalnej zmiennej losowej tzn. rodzinapostaci (E(X|Fi))i∈I , gdzie E|X| < ∞, zaś (Fi)i∈I dowolna rodzina σ-podciał F .

Dowód. Mamy na podstawie nierówności Jensena E|Xi| = E|E(X|Fi)| ¬E|X|, a zatem

P(|Xi| ­ C) ¬ E|Xi|C

¬ E|X|C

¬ δ dla C ­ δ

E|X|.

Ponieważ |Xi| ­ C ∈ Fi, więc z nierówności Jensena

E|Xi|I|Xi|>C = E|E(XI|Xi|>C|Fi)| ¬ EE(|X|I|Xi|>C|Fi)

¬ E(|X|I|Xi|>C) ¬ ε,

jeśli tylko dobierzemy odpowiednio małe δ korzystając z jednostajnej cał-kowalności |X|.

4. Podmartyngał z czasem odwróconym o wartościach średnich ograniczo-nych z dołu tzn. podmartyngał (Xn)n¬0 taki, że a := limn→∞ EXn > −∞.

Dowód. Ustalmy ε > 0 i dobierzmy k takie, że EXk ¬ a + ε/2, wówczasEXk − ε/2 ¬ EXn ¬ EXk dla n ¬ k. Zatem dla takich n, z własnościpodmartyngału

E|Xn|I|Xn|>C = EXnIXn>C − EXnIXn<−C

34

Page 35: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

= EXnIXn>C + EXnIXn­−C − EXn

¬ EXkIXn>C + EXkIXn­−C − EXk +ε

2

= EXkIXn>C − EXkIXn<−C +ε

2¬ E|Xk|I|Xn|>C +

ε

2.

Ponieważ E|Xn| = 2EX+n −EXn ¬ 2EX+

0 −a, więc b := supn E|Xn| < ∞.Zatem

P(|Xn| > C) ¬ E|Xn|C

¬ b

Cdla C :=

b

δ

czyli wobec jednostajnej całkowalności rodziny jednoelementowej, dla od-powiednio małego δ > 0, E|Xk|I|Xn|>C ¬ ε/2, a więc E|Xn|I|Xn|>C ¬ε dla n ¬ k i odpowiednio dużego C. Ponieważ rodzina Xk+1, Xk+2, . . . , X0jest skończona, a zatem i jednostajnie całkowalna, więc dla dużych C iwszystkich n ¬ 0, E|Xn|I|Xn|>C ¬ ε.

Fakt 7.9 Załóżmy, że 1 ¬ p < ∞, a Xn są zmiennymi losowymi takimi, że ro-dzina (|Xn|p)∞

n=1 jest jednostajnie całkowalna. Wówczas Xn zbiega do zmiennejX w Lp wtedy i tylko wtedy gdy Xn zbiega do X według prawdopodobieństwa.

Dowód. Wystarczy udowodnić, że zbieżność Xn według prawdopodobień-stwa implikuje zbieżność w Lp, bo przeciwna implikacja jest zawsze prawdziwa.Załóżmy więc, że Xn

P→ X, wówczas dla pewnego podciągu nk, Xnkzbiega do

X p.n., stąd na mocy Lematu Fatou

E|X|p = E lim inf |Xnk|p ¬ lim inf E|Xnk

|p ¬ supn

E|Xn|p < ∞.

Zatem rodzina |Xn|p : n = 1, 2, . . . ∪ |X|p jest jednostajnie całkowalna.Ustalmy ε > 0 i dobierzmy δ > 0 tak by dla P(A) < δ zachodziło E|Xn|pIA ¬ εoraz E|X|pIA ¬ ε. Mamy

E|Xn − X|p ¬ εp + E|Xn − X|pI|Xn−X|>ε

¬ εp + 2pE|Xn|pI|Xn−X|>ε + 2pE|X|pI|Xn−X|>ε,

a ponieważ XnP→ X, więc P(|Xn − X| > ε) < δ dla dużych n czyli

E|Xn − X|p ¬ εp + 2p+1ε dla dostatecznie dużych n.

Wniosek 7.10 Jeśli rodzina (Xn)∞n=1 jest jednostajnie całkowalna oraz Xn zbie-

ga prawie na pewno do zmiennej X to limn→∞ EXnIA = EXIA dla wszystkichzdarzeń A.

Dowód. Stosujemy Fakt 7.9 i oczywiste szacowanie |EXnIA − EXIA| ¬E|Xn − X|.

35

Page 36: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Twierdzenie 7.11 a) Załóżmy, że T jest przedziałem, a (Xt)t∈T martyngałemprawostronnie ciągłym, zaś σ i tau czasami zatrzymania takimi, że σ ¬ τ ¬ tmax

oraz tmax ∈ T . Wówczas E(Xτ |Fσ) = Xσ p.n.b) Jeśli (Xt)0¬t¬∞ jest prawostronnie ciągłym martyngałem z ostatnim elemen-tem X∞ to dla dowolnych dwu czasów zatrzymania σ ¬ τ , E(Xτ |Fσ) = Xσ p.n.

Dowód. Udowodnimy część a) (część b) dowodzi się w taki sam sposób).Zdefiniujmy

τn(ω) :=

tmax − kn dla τ(ω) ∈ (tmax − k+1

n , tmax − kn ], k = 0, 1, . . . , n2

tmax − n dla τ(ω) ¬ tmax − n

oraz

σn(ω) :=

tmax − kn dla σ(ω) ∈ (tmax − k+1

n , tmax − kn ], k = 0, 1, . . . , n2

tmax − n dla σ(ω) ¬ tmax − n.

Wówczas σn ¬ τn ¬ tmax są ograniczonymi czasami zatrzymania przyjmu-jącymi jedynie skończenie wiele wartości. Zatem na mocy Lematu 6.3 mamyE(Xτn |Fσn) = Xσn p.n., E(Xtmax |Fσn) = Xσn p.n. oraz E(Xtmax |Fτn) = Xτn

p.n., w szczególności więc rodziny (Xτn)∞n=1 oraz (Xσn

)∞n=1 są jednostajnie cał-

kowalne. Ponieważ τn → τ+ oraz σn → σ+, więc z prawostronnej ciągłości Xoraz Faktu 7.9 Xτn

→ Xτ , Xσn→ Xσ p.n. i w L1. Weźmy A ∈ Fσ ⊂ Fσn

,wówczas

EXτ IA = limn→∞

EXτnIA = limn→∞

EXσnIA = EXσIA,

co oznacza, że E(Xτ |Fσ) = Xσ p.n.

Definicja 7.3 Funkcję f : T → R określoną na przedziale T nazywamy PCLG(często również używa się pochodzącej z francuskiego nazwy cadlag) jeśli jestprawostronnie ciągła i w każdym punkcie T (poza ewentualnie lewym końcem)ma skończone lewostronne granice.

Twierdzenie 7.12 Załóżmy, że T jest przedziałem, a X = (Xt)t∈T jest pod-martyngałem (odp. nadmartyngałem) względem filtracji (Ft)t∈T spełniającej zwy-kłe warunki. Wówczas X ma prawostronnie ciągłą modyfikację wtedy i tylkowtedy gdy funkcja t → EXt jest prawostronnie ciągła. Co więcej, jeśli taka mo-dyfikacja istnieje to istnieje również modyfikacja PCLG i Ft-adaptowalna będącapodmartyngałem (odp. nadmartyngałem) względem (Ft)t∈T .

Dowód. ⇐ Wystarczy rozpatrzeć przypadek podmartyngału oraz T = [a, b].Na mocy Twierdzenia 7.5 istnieje A takie, że P(A) = 1 oraz dla wszystkichω ∈ A granice lims→t+,s∈Q Xs, t ∈ [a, b) oraz lims→t−,s∈Q Xs, t ∈ (a, b] istniejąi są skończone. Połóżmy

Xt+(ω) :=

lims→t+,s∈Q Xs(ω) ω ∈ A0 ω /∈ A

36

Page 37: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Niech tn t+, ponieważ EXtn ­ EXa, więc (Xtn)n jest jednostajnie całkowal-ny jako podmartyngał z czasem odwróconym (zob. Przykład 4). Weźmy A ∈ Ft,wówczas

EXtIA ¬ EXtnIA → EXt+IA przy n → ∞,

stąd Xt+ = E(Xt+|Ft) ­ Xtp.n.. Co więcej

E(Xt+ − Xt) = limn→∞

EXtn − EXt = 0

na mocy prawostronnej ciągłości t → EXt czyli Xt+ = Xt p.n., a zatem Xt+

jest szukaną modyfikacją X.⇒: Zauważmy, że jeśli Xt prawostronnie ciągły to Xt+ = Xt, biorąc tn t+

i wykorzystując jednostajną całkowalność (Xtn)n (zob. Przykład 4) dostajemy

EXt = EXt+ = limn→∞ EXtn.

Twierdzenie 7.13 Załóżmy, że (Xt)t­0 jest prawostronnie ciągłym martynga-łem. Wówczas następujące warunki są równoważne:a) Rodzina (Xt)t­0 jest jednostajnie całkowalna.b) Istnieje całkowalna zmienna losowa X∞ taka, że Xt zbiega do X∞ w L1 tzn.limt→∞ E|Xt − X∞| = 0.c) Istnieje całkowalna zmienna losowa X∞ mierzalna względem F∞ := σ(

⋃t­0 Ft)

taka, że Xt = E(X∞|Ft) dla t ­ 0.W przypadku, gdy zachodzą warunki (a)-(c) to X∞ = limt→∞ Xt p.n.

Dowód. a)⇒b): Jeśli Xt jest jednostajnie całkowalny to supt EX−t ¬ supt E|Xt| <

∞, czyli wobec Twierdzenia 7.6 istnieje zmienna całkowalna X∞ taka, że Xt →X∞ p.n.. Z jednostajnej całkowalności i Lematu 7.9 wynika zbieżność w L1.

b)⇒c): Dla pewnego podciągu tk → ∞, Xtk→ X∞ p.n., stąd możemy

zakładać, że zmienna X∞ jest F∞ mierzalna. Ustalmy t i A ∈ Ft, wówczas dlas ­ t

EXtIA = EXsIA → EX∞IA, s → ∞.

Zatem Xt = E(X∞|Ft) p.n..c)⇒a) wiemy, że rodzina uśrednień ustalonej zmiennej jest jednostajnie cał-

kowalna.Ostatnia część twiedzenia wynika z dowodu implikacji a)⇒b).

Twierdzenie 7.14 Załóżmy, że (Xt)t­0 jest prawostronnie ciągłym martynga-łem. Wówczas następujące warunki są równoważne:a) supt­0 E|Xt|p < ∞b) Rodzina (|Xt|p)t­0 jest jednostajnie całkowalna.c) Istnieje zmienna losowa X∞ ∈ Lp taka, że Xt zbiega do X∞ w Lp tzn.limt→∞ E|Xt − X∞|p = 0.d) Istnieje losowa X∞ ∈ Lp mierzalna względem F∞ := σ(

⋃t­0 Ft) taka, że

Xt = E(X∞|Ft) dla t ­ 0.W przypadku, gdy zachodzą warunki (a)-(d) to X∞ = limt→∞ Xt p.n.

37

Page 38: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. a)⇒b): Na podstawie Twierdzenia 6.6 wiemy, że E supt­0 |Xt|p ¬( p

p−1 )p supt­0 E|Xt|p < ∞. Pozostałe implikacje dowodzimy jak w dowodzieTwierdzenia 7.13.

Uwaga: Ciąg dalszy notatek w plikach wykps2.*

A Kilka faktów z Rachunku Prawdopodobień-stwa i Analizy Matematycznej

W części tej zebrano (na ogół bez dowodów) kilka twierdzeń wykorzystywanychpodczas wykładów. Twierdzenia te są zwykle dowodzone w czasie kursowychwykładów z analizy matematycznej i rachunku prawdopodobieństwa.

Definicja A.1 Rodzina S podzbiorów zbioru X jest π−układem jeśli dla do-wolnych A, B ∈ S zbiór A ∩ B ∈ S.

Definicja A.2 Rodzina A podzbiorów zbioru X jest λ−układem jeśli spełnionesą następujące warukii) X ∈ A,ii) Jeśli A, B ∈ A i A ⊂ B, to B \ A ∈ A,iii) Jeśli A1 ⊂ A2 ⊂ . . . oraz Ai ∈ A dla i = 1, 2, . . . to

⋃∞i=1 Ai ∈ A.

Twierdzenie A.1 (O π− i λ− układach) Jeśli A jest λ−układem zawiera-jącym π−układ S to A zawiera również σ-ciało σ(S) generowane przez S.

Twierdzenie A.2 (Caratheodory’ego o przedłużaniu miary) Załóżmy, żeA jest algebrą podzbiorów X, a µ0 skończenie addytywną funkcją z A w R+.Wówczas µ0 przedłuża się do miary µ na σ-algebrze σ(A) wtedy i tylko wtedygdy µ0 jest ciągła w ∅ tzn

jeśli A1 ⊃ A2 ⊃ . . . , An ∈ A,

∞⋂n=1

An = ∅ to limn→∞

µ0(An) = 0. (C)

Lemat A.3 (Nierówność Jensena) Niech f : R → R będzie funkcją wypukłą,a X całkowalną zmienną losową taką, że E|f(X)| < ∞. Wówczas dla dowolnegosigma ciała G, E(f(X)|G) ­ f(E(X|G)) p.n..

Dowód. Możemy znaleźć ciągi an i bn takie, że f(x) = supn(an + bnx) dlawszystkich x ∈ R. Z liniowości wartości oczekiwanej

f(E(X|G)) = supn

(an + bnE(X|G)) = supn

E(an + bnX|G) ¬ E(f(X)|G).

Lemat A.4 (Całkowanie przez części) Załóżmy, że Z jest nieujemną zmien-ną losową, a ϕ : R+ → R niemalejącą funkcją różniczkowalną taką, że ϕ(0) = 0.Wówczas

Eϕ(Z) =∫ ∞

0ϕ′(t)P(Z ­ t)dt.

38

Page 39: Procesy Stochastyczne I - Uniwersytet Warszawskirlatala/testy/proc/wykps1_1.pdf · Procesy Stochastyczne I Rafał Latała 4 kwietnia 2003 Wstęp Poniższy tekst zawiera notatki do

Dowód. Mamy stosując twierdzenie Fubiniego

Eϕ(Z) = E(ϕ(Z) − ϕ(0)) = E∫ Z

0ϕ′(t)dt

=∫ ∞

0ϕ′(t)(EIZ­t)dt =

∫ ∞

0ϕ′(t)P(Z ­ t)dt.

Bibliografia

[1] T. Bojdecki, Martyngały z czasem dyskretnym, zarys teorii i przykłady za-stosowań, Wyd. UW, Warszawa 1977

[2] P. Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987

[3] W. Feller, Wstęp do rachunku prawdopodobieństwa, tom I-II, PWN, Warsza-wa 1966

[4] J. Jakubowski, R. Sztencel, Wstęp do teorii prawdopodobieństwa, wyd II,Script, Warszawa 2001

[5] I. Karatzas, S. Shreve, Brownian Motion and Stochastic Calculus, 2nd edi-tion, Springer-Verlag, New York 1997

[6] W. Rudin, Analiza rzeczywista i zespolona, PWN, Warszawa 1998

[7] D. Revuz, M. Yor, Continous martingales and Brownian Motion, 3rd edition,Springer-Verlag, Berlin 1999

[8] A. D. Wentzell, Wykłady z teorii procesów stochastycznych, PWN, Warszawa1980

39