1 Kombinatoryka
Transcript of 1 Kombinatoryka
1 KombinatorykaW tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyzna-czania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagająpodstawowej wiedzy kombinatorycznej oraz dyskretnych zmiennych losowych.
1. (Eg 48/4) W urnie znajduje się 16 kul, z których 8 jest białych i 8 czarnych. Losujemy bezzwracania 6 kul, a następnie 5 z pozostałych kul. Niech S2 oznacza liczbę kul białych uzyskaną wdrugim losowaniu. Oblicz VarS2.Odp: B-> 11
12 .
Rozwiązanie. Stosujemy zmienne włączeniowe, Xi ∈ 0, 1, i ∈ 1, 2, ..., 11, gdzie Xi = 1 jeśli wi-tym losowaniu wyciągnięto białą kulę i 0 w przeciwnym przypadku. Oczywiście S2 =
∑11i=7Xi.
Zachodzi EXi = P(Xi = 1) = 12 , i ∈ 1, 2, ..., 11 oraz EXiXj = P(Xi = 1, Xj = 1) = 1
2715 = 7
30 ,i 6= j, i, j ∈ 1, 2, ..., 12. Zatem
ES2 = 5 · 1
2= 3, ES2
2 = 5P(X1 = 1) + 5 · 4P(X1 = 1, X2 = 1) =5
2+
14
3=
43
6.
Czyli
VarS22 =
14
3−(
5
2
)2
=86
12− 75
12=
11
12.
2. (Eg 49/6) Dysponujemy dwiema urnami: A i B. W urnie A są 2 kule białe i 3 czarne, w urnie Bsą 4 kule białe i 1 czarna. Wykonujemy trzy etapowe losowanie:
(a) losujemy urnę;(b) z wylosowanej urny ciągniemy 2 kule bez zwracania, a następnie wrzucamy do tej urny 2 kule
białe i 2 czarne;(c) z urny, do której wrzuciliśmy kule, losujemy jedną kulę.
Okazało się, że wylosowana w trzecim etapie kula jest biała. Obliczyć p-stwo, że w drugim wylo-sowano 2 kule tego samego koloru.Odp: C-> 0, 5.
Rozwiązanie. Mamy drzewo prawdopodobieństw przejścia do poszczególnych stanów
Stan1 P-p Stan2 P-p Stan3 P-p(2, 3) 1
2 (2, 5) 110 biała 2
7(2, 3) 1
2 (3, 4) 610 biała 3
7(2, 3) 1
2 (4, 3) 310 biała 4
7(4, 1) 1
2 (4, 3) 610 biała 4
7(4, 1) 1
2 (5, 2) 410 biała 5
7 .
Niech P(3, b) będzie prawdopodobieństwem uzyskania białej kuli w 3 losowaniu,
P(3, b) =1
2· 1
10· 2
7+
1
2· 6
10· 3
7+
1
2· 3
10· 4
7+
1
2· 6
10· 4
7+
1
2· 4
10· 5
7=
76
140.
Z drugiej strony prawdopodobieństwo, że w drugim losowaniu pojawiły się kule biała i czarna, aw trzecim losowaniu biała P(2, (b, c); 3, b) wynosi
P(2, (b, c); 3, b) =1
2· 6
10· 3
7+
1
2· 4
10· 5
7=
38
140.
Zatem P(2, (b, c)|3, b) = P(2, (b, c); 3, b)/P(3, b) = 3876 ·
12 .
1
3. (Eg 50/7) W urnie znajduje się 20 kul białych, 20 kul czarnych i 20 kul niebieskich. Losujemy bezzwracania 24 kule. Niech
(a) X oznacza liczbę wylosowanych kul białych;
(b) Y oznacza liczbę wylosowanych kul czarnych;
(c) Z oznacza liczbę wylosowanych kul niebieskich.
Współczynnik korelacji zmiennych losowych X + 2Y i Z, Corr(X + 2Y, Z) jest równy?Odp: B-> −
√32 .
Rozwiązanie. Przypomnijmy, że Corr(X + 2Y,Z) = Cov(X+2Y,Z)√Var(X+2Y )
√Var(Z)
. Łatwo zauważyć, że
Cov(X,Z) = Cov(Y,Z), Var(X) = Var(Y ) = Var(Z), zatem
Cov(X + 2Y,Z) = Cov(X,Z) + 2Cov(Y, Z) = 3Cov(X,Z).
Podobnie
Var(X + 2Y ) = Cov(X + 2Y,X + 2Y ) = 5Var(X,X) + 4Cov(X,Y ).
Korzystamy zmiennych włączeniowych, żeby obliczyć Cov(X,Z). Niech X =∑24i=1 1Xi=1, gdzie
Xi = 1 jeśli w i tym losowaniu pojawiła się biała kula. Analogicznie definiujemy Yi, Zi, i ∈1, 2, ..., 24. Zachodzi
EX = 24P(X1 = 1) =24
3= 8,
EX2 = 24P(X1 = 1) + 24 · 23P(X1 = 1, X2 = 1) = 8 +24 · 23 · 19
3 · 59= 8 · 496
59.
WreszcieEXY = 24 · 23P(X1 = 1, Y2 = 1) =
24 · 23
3 · 203 · 59 = 8 · 23 · 20
59.
czyli Cov(X,Y ) = 8(46059 −
47259
)= −8 · 1259 oraz Var(X) = 8
(49659 −
47259
)= 8 · 2459 . Niech zatem
a = 8 · 1259 , mamy
Cov(X + 2Y,Z) = −3a, Var(X + 2Y ) = 10a− 4a = 6a, Var(Z) = 2a.
Ostatecznie
Corr(X + 2Y,Z) =−3a√6a√
2a= − 3
2√
3= −√
3
2.
4. (Eg 51/10) Pan A przeznaczył 5 zł na pewną grę. W pojedynczej kolejce gry pan A wygrywa 1zł z p-stwem 1/3 przegrywa 1 zł z p-stwem 2/3. Pan A kończy grę, gdy wszystko przegra lub gdybędzie miał 10 zł. P-stwo, że A wszystko przegra jest równe?Odp: D-> 0, 97.
Rozwiązanie. Zadanie dotyczy prawdopodobieństwa ruiny. W celu rozwiązania budujemy nieza-leżne zmienne losowe Xk, k > 1 takie, że Xk = 1 jeśli A wygrywa oraz Xk = −1 jeśli A przegrywa.Definiujemy Sn = X1 + ... + Xn, n > 1 oraz S0 = 0. Okazuje się, że zmienne Mn = 2Sn , n > 0tworzą martyngał względem naturalnej filtracji. Rzeczywiście
E(Mn|Fn−1) = Mn−1E2Xn = Mn−1
(1
3· 2 +
2
3
1
2
)= Mn−1.
Zauważmy, że gracz kończy grę w momencie τ = infn > 0 : Sn ∈ −5, 5. Zatem z twierdzeniaDooba (moment τ nie jest ograniczony ale nietrudno pokazać, że w tym przypadku również to
2
twierdzenie działa) wynika, że 1 = EMτ . Niech teraz a = P(Sτ = 5), b = P(Sτ=−5). Ponieważ jakłatwo sprawdzić P(τ <∞) = 1, więc a+ b = 1, nadto
1 = EMτ = a25 + b2−5.
Mamy zatem układ równań a+ b = 1a25 + b2−5 = 1
Stąd a = 25−1210−1 , b = 210−25
210−1 . Szukana wartość to b ' 0, 97.
5. (Eg 52/2) W urnie znajduje się 100 ponumerowanych kul o numerach 1, 2..., 100. Losujemy bezzwracania 10 kul, zapisujemy numery, kule zwracamy do urny. Czynność te powtarzamy 10 razy.Oblicz wartość oczekiwaną liczby kul, które zostały wylosowane dokładnie dwa razy.Odp: D-> 19, 37.Rozwiązanie. Zadanie staje się proste jeśli zastosujemy zmienne włączeniowe, 1Xi=1, i ∈ 1, 2, ..., 100,gdzie Xi = 1 jeśli dokładnie dwa razy kula z numerem i została wylosowana. Należy wyznaczyćE∑100i=1 1Xi=1 = 100P(X1 = 1), gdyż P(Xi = 1) są identyczne. Pozostaje zauważyć, że
P(Xi = 1) =
(10
2
)(1
10
)2(9
10
)8
.
Stąd E∑100i=1 1Xi=1 = 45 ·
(910
)8 ' 19, 37.
6. (Eg 53/10) Z urny, w której jest 6 kul czarnych i 4 białe losujemy kolejno bez zwracania po jednejkuli, tak długo aż wylosujemy kulę czarną. Wartość oczekiwana liczby wylosowanych kul białychjest równa?Odp: B-> 4
7 .Rozwiązanie. Przypomnijmy wzór EX =
∑∞k=0 P(X > k), dla zmiennych X o watotściach
całkowitych dodatnich. Sprawdzamy, że
P(X > 0) = 1, P(X > 1) =4
10=
2
5, P(X > 2) =
4 · 310 · 9
=2
15,
P(X > 3) =4 · 3 · 210 · 9 · 8
=1
30, P(X > 4) =
4 · 3 · 2 · 110 · 9 · 8 · 7
=1
210,
nadto P(X > k) = 0 dla k > 4. Stąd EX = 25 + 2
15 + 130 + 1
210 = 120210 = 4
7 .
7. (Eg 54/7) mamy dwie urny: I i II. Na początku doświadczenia w każdej z urn znajdują się 2kule białe i 2 czarne. Losujemy po jednej kuli z każdej urny - po czym kulę wylosowaną z urny Iwrzucamy do urny II, a te wylosowana z urny II wrzucamy do urny I. Czynność tę powtarzamywielokrotnie. Granica (przy n → ∞) p-stwa, iż obie kule wylosowane w n-tym kroku są jednako-wego koloru, wynosi:?Odp: C-> 3
7 .Rozwiązanie. Zadanie rozwiązuje się metoda łańcuchów Markowa. Jest możliwych 5 stanów naliczbę kul białych w urnie I. Należy znaleźć prawdopodobieństwa przejścia w jednym kroku. Mamy
P =
S 0 1 2 3 40 0 1 0 0 01 1
16616
916 0 0
2 0 14
12
14 0
3 0 0 916
616
116
4 0 0 0 1 0
3
należy wyznaczyć rozkład stabilny z równania πM = π oraz warunku, że∑4k=0 πk = 1. Nietrudno
zauważyć symetrię macierzy skąd wynika, że π0 = π4, π1 = π3. Nadto natychmiast zauważamy, żeπ0 = 1
16π1. Wystarczą zatem 2 równania (w terminach π1 i π2)π1 = 7
16π1 + 14π2
1 = 18π1 + 2π1 + π2
Skąd wynika, że π0 = π4 = 170 , π1 = π3 = 8
35 , π2 = 1835 . Obliczamy prawdopodobieństwa warunkowe
wylosowania kul różnego koloru w zależności od stanu liczby kul białych w I urnie
P((b, c)|0) = P((b, c)|4) = 1, P((b, c)|1) = P((b, c)|3) =5
8, P((b, c)|2) =
1
2.
Dostajemy ze wzoru Bayesa dla stanów rozłożonych według π (czyli w granicy n→∞)
P((b, c)) = 2 · 1
70+ 2 · 5
8· 8
35+
1
2
18
35=
4
7.
Zatem prawdopodobieństwo zdarzenia przeciwnego wynosi 37 .
8. (Eg 55/3) Wylosowano niezależnie 15 liczb z rozkładu symetrycznego ciągłego i ustawiono je w ciągwedług kolejności losowania. Otrzymano 8 liczb dodatnich (każda z nich oznaczamy symbolem a)i 7 ujemnych (każdą z nich oznaczamy symbolem b). Obliczyć p-stwo, że otrzymano 6 serii, gdzieserią nazywamy ciąg elementów jednego typu, przed i za którym występuje element drugiego typu,na przykład w ciągu: aaabbbbaabbbbba jest 5 serii (3 serie elementów typu a i 2 serie elementówtypu b).Odp: C-> 14
143
Rozwiązanie. Należy zauważyć, że zbiór Ω złożony ze wszystkich możliwych podzbiorów 8 ele-mentowych w zbiorze 15 elementowym ma
(158
)elementów. Teraz należy zauważyć, że seria będzie
jednoznacznie wyznaczonym podzbiorem jeśli podamy od jakiego symbolu zaczynamy, a następniedługości ścieżek k1, k2, k3 dla serii symbolu a oraz l1, l2, l3 dla serii symbolu b. Oczywiście ścieżkimuszą mieć długość dodatnią nadto k1 + k2 + k3 = 8, l1 + l2 + l3 = 7. Ogólnie liczba rozwiązańrównania x1 + ...+ xk = n w liczbach naturalnych (bez zera) wynosi
(n−1k−1). Zatem liczność zbioru
A6 złożonego z serii długości 6 wynosi
|A6| = 2 ·(
7
2
)(6
2
).
OstatecznieP(A6) =
|A6|||Ω|
=14
143.
9. (Eg 56/4) Dysponujemy 5 identycznymi urnami. Każda z nich zawiera 4 kule. Liczba kul białychw i-tej urnie jest równa i − 1, gdzie i = 1, 2, ..., 5, pozostałe kule są czarne. Losujemy urnę, anastępnie ciągniemy z niej jedną kulę i okazuje się, że otrzymana kula jest biała. Oblicz p-stwo,że ciągnąc drugą kule z tej samej urny (bez zwracania pierwszej) również otrzymamy kulę białą.Odp: D-> 2
3 .Rozwiązanie. Ze symetrii zadania jest jasne, że szansa wylosowania białej kuli w pierwszej rundziewynosi 1
2 . Aby obliczyć szansę wyciągnięcia dwóch kul białych stosujemy wzór Bayesa
P((b, b)) =
5∑i=1
(i−12
)(42
) 1
5.
Zachodzi wzór kombinatoryczny∑5i=1
(i−12
)=(53
)(trójkąt Pascala). Nadto
(53
)/(42
)= 5
3 , stądP((b, b)) = 1
3 . To oznacza, że P((b, b)|b) = 23 .
4
10. (Eg 57/1) Urna zawiera 5 kul o numerach: 0, 1, 2, 3, 4. Z urny ciągniemy kulę, zapisujemy numer ikulę wrzucamy z powrotem do urny. Czynność tę powtarzamy, aż kula z każdym numerem zostaniewyciągnięta co najmniej raz. Oblicz wartość oczekiwaną liczby powtórzeń.Odp: C-> 11 5
12 .
Rozwiązanie. Tutaj łatwo zauważyć, że jeśli T1, ..., T5 będą czasami oczekiwania na kolejny nowysymbol, to T1 = 1 nadto Tk+1 − Tk, k ∈ 1, 2, 3, 4 ma rozkład geometryczny z prawdopodobień-stwem sukcesu pk = 5−k
5 (i wartości oczekiwanej 1/pk). Zatem
ET5 = 1 +
4∑k=1
E(Tk+1 − Tk) = 1 +
4∑k=1
5
5− k= 11
5
12.
11. (Eg 58/7) W urnie znajduje się 20 kul: 10 białych i 10 czerwonych. Losujemy bez zwracania 8 kul, anastępnie z pozostałych w urnie kul losujemy kolejne 6 kul. Niech S8 oznacza liczbę wylosowanychkul białych wśród pierwszych 8 wylosowanych kul, a S6 liczbę kul białych wśród następnych 6 kul.Oblicz Cov(S8, S8 + S6).Odp: C-> 12
19 .
Rozwiązanie. Oczywiście skorzystamy ze zmiennych włączeniowych. Niech Xi, i ∈ 1, ..., 14oznacza 1 jeśli w i tej rundzie pojawiła się biała kula i 0 w przeciwnym przypadku. Mamy S8 =∑8i=1Xi oraz S6 =
∑16i=9Xi. Zachodzi
ES8 = 8P(X1 = 1) = 4, E(S6) = 6P(X1 = 1) = 3.
TerazES2
8 = 8P(X1 = 1) + 8 · 7P(X1 = 1, X2 = 1) = 4 + 56 · 1
2· 9
19=
328
19.
Stąd
VarS8 =328
19− 304
19=
24
19.
Z drugiej strony
ES8S6 = 48P(X1 = 1, X2 = 1) = 48 · 1
2· 9
19.
Co daje
Cov(S8, S6) =216
19− 228
19= −12
19.
OstatecznieCov(S8, S8 + S6) = VarS8 + Cov(S8, S6) =
24
19− 12
19=
12
19.
12. (Eg 60/9) W urnie znajduje się 30 kul, na każdej narysowana jest litera i cyfra. Mamy:
(a) 10 kul oznaczonych X1;
(b) 6 kul oznaczonych Y 1;
(c) 8 kul oznaczonych X2;
(d) 6 kul oznaczone Y 2.
Losujemy bez zwracania 15 kul. Niech NX1 oznacza liczbę kul oznaczonych literą X1 wśród kulwylosowanych,a N2 liczbę kul z cyfrą 2 wśród kul wylosowanych. Obliczyć Var(NX1|N2 = 5).Odp: A-> 15
16 .
Rozwiązanie. Dokonujemy uproszczenia, mamy pięć kul wylosowanych z cyfrą 2. Zatem de factolosujemy 10 typu X1 lub X2, czyli ze zbioru 18 elementowego. W tym modelu probabilistycznym
5
musimy policzyć wariancję zmiennej NX1 co robimy przez zmienne włączeniowe. Niech Xi, i ∈1, ..., 10 będzie zmienną przyjmującą 1 jeśli na i-tej pozycji stoi X1 oraz 0 jeśli X2. OczywiścieNX1 =
∑10i=1 1Xi=1. Wyznaczamy
ENX1 = 10P(X1 = 1) = 10 · 5
8=
25
4.
Nadto
EN2X1 = 10P(X1 = 1) + 90P(X1 = 1, X2 = 1) = 10 · 5
8+ 90 · 5
8· 9
15=
320
8= 40.
Stąd
VarNX1 =640
16− 625
16=
15
16.
13. (Eg 61/5) W urnie znajduje się 100 kul ponumerowanych od 1 do 100. Losujemy bez zwracania 25kul i zapisujemy numery, a następnie wrzucamy kule z powrotem do urny. Czynność powtarzamy5 razy. Oblicz wartość oczekiwaną liczby kul, które zostały wylosowane co najmniej 2 razy.Odp: D-> 36, 7.Rozwiązanie. Zadanie rozwiązujemy przez zmienne włączeniowe. Niech Xi, i ∈ 1, ..., 100 przyj-muje wartość 1 jeśli kula z numerem i pojawiła się co najmniej 2 razy w losowaniu i 0 w przeciwnymprzypadku. Oczywiście szukana odpowiedź to
E
100∑i=1
Xi = 100P(X1 = 1).
Żeby policzyć P(X1 = 1) zauważmy, że w każdym z 5 losowań kula i miała prawdopodobieństwo14 , że się pojawi. Zatem
P(X1 = 1) =
5∑k=2
(5
k
)(1
4
)k (3
4
)5−k
= 1−(
3
4
)5
− 5 · 1
4
(3
4
)4
=47
128.
Czyli wynik to 100 · 47128 ' 36, 7.
14. (Eg 62/6) Z urny, w której są 2 kule białe i 3 czarne, wylosowane jedną kulę a następnie wrzucono jaz powrotem dorzucając kulę w tym samym kolorze co wylosowana. Następnie z urny wylosowano 2kule, wrzucono je z powrotem dorzucając 2 kule identyczne jak wylosowane. Następnie wylosowano3 kule. Okazało się, że są to 3 kule białe. Oblicz p-stwo, że w drugim losowaniu wylosowane kuleróżnych kolorów.Odp: A-> 15
29 .Rozwiązanie. Potrzebujemy struktury drzewa aby opisać kolejne losowania
Stan1 P-p Stan2 P-p Stan3 P-p(3, 3) 2
5 (5, 3) 15 (b, b, b) 5
28(3, 3) 2
5 (4, 4) 35 (b, b, b) 1
14(3, 3) 2
5 (3, 5) 15 (b, b, b) 1
56(2, 4) 3
5 (4, 4) 115 (b, b, b) 1
14(2, 4) 3
5 (3, 5) 815 (b, b, b) 1
56
Wyznaczamy
P(3, (b, b, b)) =2
5· 1
5· 5
28+
2
5· 3
5· 1
14+
+2
5· 1
5· 1
56+
3
5· 1
15· 1
14+
3
5· 8
15· 1
56=
29
25 · 28.
6
Teraz wyznaczamy
P(2, (b, c); 3, (b, b, b)) =2
5· 3
5· 1
14+
3
5· 8
15· 1
56=
16
25 · 28.
Stąd
P(2, (b, c); 3, (b, b, b)) =16
29.
15. (Eg 63/1)W urnie znajdują się kule, z których każda jest oznaczona jedną z liter alfabetu:
• 10 kul oznaczonych literą A.
• 20 kul oznaczonych literą B.
• 30 kul oznaczonych literą C.
• x kul oznaczonych innymi literami alfabetu.
Losujemy bez zwracania 9 kul z urny. Zmienne losowe NA, NB , NC oznaczają, odpowiednio, liczbęwylosowanych kul z literami A,B,C. Jakie musi być x , aby zmienne losowe NA+NB oraz NB+NCbyły nieskorelowane.Odp: C-> x = 15.
Rozwiązanie. Korzystamy ze zmiennych Ai, Bi, Ci, Xi, 1 6 i 6 9 gdzie zmienne przyjmują warto-ści 0 lub 1, przy czym 1 jeśli na pozycji w i-tym losowaniu wybrano odpowiednio A,B,C oraz innąliterę. Zachodzi NA =
∑9i=1Ai, NB =
∑9i=1Bi NC =
∑9i=1 Ci. Należy wyliczyć Cov(NA, NB),
Cov(NB , NC), Cov(NC , NA). Zachodzi
ENA = 910
60 + x, ENB = 9
20
60 + x, ENC = 9
30
60 + x,
nadto
ENANB = 72EA1B2 = 7210
60 + x
20
59 + x,
ENBNC = 72EB1C2 = 7220
60 + x
30
59 + x,
ENCNA = 72EC1A2 = 7230
60 + x
10
59 + x,
EN2B = 72EB1B2 + 9EB2
1 = 7220
60 + x
19
59 + x+ 9
20
60 + x.
Stąd
Cov(NA, NB) =9 · 10 · 20
60 + x(
8
59 + x− 9
60 + x) =
9 · 10c20(−x− 51)
(60 + x)2(59 + x),
Cov(NB , NC) =9 · 20 · 30
60 + x(
8
59 + x− 9
60 + x) =
9 · 20 · 30(−x− 51)
(60 + x)2(59 + x),
Cov(NB , NC) =9 · 30 · 10
60 + x(
8
59 + x− 9
60 + x) =
9 · 30 · 10(−x− 51)
(60 + x)2(59 + x),
Cov(NB , NB) =9 · 20
60 + x(
8 · 19
59 + x+ 1− 9 · 20
60 + x) =
9 · 20(x2 + 91x+ 34 · 60)
(60 + x)2(59 + x).
Zatem NA +NB i NB +NC są nieskorelowane jeśli
0 = Cov(NA +NB , NB +NC) = Cov(NA, NB) +Cov(NC , NA) +Cov(NB , NB) +Cov(NB , NC)
7
co jest równoważne−1100(x+ 51) + 20(x2 + 91x+ 34 · 60) = 0.
Przekształcając to równaniex2 + 36x− 765 = 0.
Rozwiązaniami tego równanie są x = −36±662 , czyli x1 = 15 i x = −51. Interesują nas wyłącznie
rozwiązania dodatnie zatem x = 15.
8
1 Gaussowskie zmienne losoweW tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza natemat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych.
1. (Eg 48/6) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi o identycznym rozkła-dzie o gęstości f(x) = 1
2√x
1(0,1)(x). Niech Un = (X1...Xn)1n . Wtedy: (asymptotyka Un − e−2)?
Odp: B-> limn→∞P((Un − e−2)√n < 4e−2) = 0, 977.
Rozwiązanie. Zadanie polega na umiejętnym zastosowaniu CTG. Zauważmy, że Yi = − logXi,i ∈ 1, ..., n oraz
P(Yi > t) = P(Xi < e−t) = e−t2 , t > 0.
Czyli Yi ma rozkład Exp( 12 ), w szczególności EYi = 2, VarYi = 4. Zatem
(Un − e−2)√n = e−2(exp(
1
n
n∑i=1
(Yi − 2)− 1)√n.
Z mocnego prawa wielkich liczb wynika, że limn→∞1n
∑ni=1(Yi − 2) = 0. Zatem
(exp(1
n
n∑i=1
(Yi − 2)− 1)√n =
1√n
n∑i=1
(Yi − 2)(1 +O(1
n
n∑i=1
(Yi − 2)).
Czyli w sensie rozkładu
limn→∞
(Un − e−2)√n = e−2 lim
n→∞
1√n
n∑i=1
(Yi − 2) = 2e−2Z,
gdzie Z ma rozkład N (0, 1). Stąd
limn→∞
P((Un − e−2)√n < 4e−2) = P(Z < 2) ' 0, 977.
2. (Eg 50/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemypróbką X1, ..., Xn z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej 4. Prze-prowadzamy najmocniejszy test hipotezy H0 : µ = 0 przeciwko alternatywie H1 : µ = −1 napoziomie istotności α = 1/2. Niech βn oznacza prawdopodobieństwo błędu drugiego rodzaju, dlarozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka βn)Odp: D-> limn→∞ βn
en8√πn√
2= 1.
Rozwiązanie. Najpierw znajdujemy błąd drugiego rodzaju czyli akceptacja hipotezy H0 w sytu-acji gdy zachodzi H1. Test najmocniejszy oparty jest na konstrukcji obszaru krytycznego wynika-jącej z Twierdzenia Neymana-Pearsona (o porównywaniu gęstości). Niech µ0 = 0, µ1 = −1 orazniech fµ0
, fµ1będą gęstościami rozkładu wektora (X1, ..., Xn) niezależnych zmiennych losowych
o tym samym rozkładzie co zmienna X, odpowiednio X ∼ N (µ0, 4), X ∼ N (µ1, 4). W meto-dzie Neymana-Pearsona badamy iloraz wiarygodności, to znaczy fµ1(x1, ..., xn)/fµ0(x1, ..., Xn).W przypadku rozkładów ciągłych nie potrzeba randomizacji, a obszar krytyczny ma postać
K = (x1, ..., xn) ∈ Rn : fµ1(x1, ..., xn)/fµ0
(x1, ..., xn) > C
dla stałej C dobranej tak aby Pµ0((X1, ..., Xn) ∈ K) = α. W naszym przypadku oznacza tokonieczność znalezienia stałej C takiej, że
Pµ0(X1 + ...+Xn < C) =
1
2.
1
Oczywiście C = 0. Błąd drugiego rodzaju wynosi
βn = Pµ1(X1 + ...+Xn > C) = P(−n+ 2
√nZ > 0),
gdzie Z ma rozkład N (0, 1). Zatem zostaje zbadać asymptmpotykę
βn = P(Z >
√n
2).
Oczywiście P(Z > t) ' 1√2πt
e−t22 stąd
limn→∞
βn
√πn√2en8 = 1.
3. (Eg 51/4) Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach normalnych, przytym EX = EY = 0, VarX = 3 i VarY = 1. Oblicz P(|X| < |Y |).Odp: A-> P(|X| < |Y |) = 0, 3333.Rozwiązanie. To zadanie ma czysto geometryczne rozwiązanie. Wystarczy wykorzystać rotacyjnąniezmienniczość standardowego rozkładu normalnego nadto zauważyć, że X =
√3X, gdzie X ma
rozkład N (0, 1). Zatem (X, Y ) ma standardowy rozkład normalny na R2 oraz
P(|X| < |Y |) = P(√
3|X| < |Y |) = µS1(α ∈ S1 : | tgα| < 1√3),
gdzie µS1 jest miarą Lebesgue’a na okręgu jednostkowym unormowaną do 1. Oczywiście α ∈ S1 :| tgα| < 1√
3 = α ∈ S1 : |α| 6 π
6 lub |π − α| 6 π6 Zatem
µS1(α ∈ S1 : | tgα| < 1√3) =
1
3.
4. (Eg 52/5) Załóżmy, że X,Y są zmiennymi o łącznym rozkładzie normalnym, EX = EY = 0,VarX = 2, VarY = 4 i Cov(X,Y ) = 1. Oblicz E(XY |X − Y = t),Odp: C-> 7
4 −316 t
2.
Rozwiązanie. Potrzebujemy metody znajdowania bazy niezależnych liniowych funkcji od X,Yzawierającej X − Y . Szukamy α takiego, że X − αY będzie niezależne od X − Y . Wystarczysprawdzić kowariancję
Cov(X − Y,X − αY ) = 2− α− 1 + 4α = 1 + 3α.
Stąd α = − 13 . Wystarczy teraz rozpisać X,Y w znalezionej bazie. Mamy
X = 14 [(X − Y ) + 3(X + 1
3Y )]Y = 3
4 [−(X − Y ) + (X + 13Y )]
Niech Z = (X + 13Y ), zmienną X −Y możemy traktować jako parametr t przy wyliczaniu warun-
kowej wartości oczekiwanej (bo jest niezależna od Z). Zatem
E(XY |X − Y = t) = E(1
4(t+ 3Z)
3
4(−t+ Z)) =
3
16(−t2 + 3tEZ + 3EZ2).
Oczywiście EZ = 0. Natomiast z dwuliniowości kowariancji i
EZ2 = VarZ = 2 +2
3+
4
9=
28
9.
Czyli E(XY |X − Y = t) = − 316 t
2 + 74 .
2
5. (Eg 53/9) Mamy próbą prostą ((X1, Y1), (X2, Y2), ..., (X10, Y10)) z rozkładu normalnego dwuwy-miarowego o nieznanych parametrach
EXi = EYi = µ, VarXi = VarYi = σ2, Cov(Xi, Yi) = σ2ρ.
Niech
Zi = Xi + Yi, Ri = Xi − Yi, S2Z =
1
9
10∑i=1
(Zi − Z)2, S2R =
1
9
10∑i=1
(Ri − R)2,
gdzie Z oraz R to odpowiednie średnie z próbki. Do testowania hipotezy H0 : ρ = 13 przeciwko
alternatywie H1 : ρ 6= 13 możemy użyć testu o obszarze krytycznym postaci:
S2Z
S2R
< k1, lubS2Z
S2R
> k2,
przy czym liczby k1 i k2 dobrane są tak, aby przy założeniu, że H0 jest prawdziwa
P(S2Z
S2R
< k1) = P(S2Z
S2R
> k2) = 0, 05.
Liczby k1 i k2 są równe: ?Odp: D-> k1 = 0, 629 i k2 = 6, 358.
Rozwiązanie. Zauważmy, że (Xi + Yi) jest niezależne od (Xi − Yi), istotnie
Cov(Xi + Yi, Xi − Yi) = VarXi −Cov(Xi, Yi) + Cov(Yi, Xi)−Var(Yi) = 0.
To oznacza, że S2Z i S2
R są niezależne. Wystarczy wyznaczyć ich rozkłady. Mamy
Var(Xi + Yi) = 2σ2 + 2ρσ2 = 2(1 + ρ)σ2.
AnalogicznieVar(Xi − Yi) = 2σ2 − 2ρσ2 = 2(1− ρ)σ2.
To oznacza, że Zi = [2(1 + ρ)]12σZi, Ri = [2(1 − ρ)]
12 Ri, gdzie Zi, Ri są niezależne z rozkładu
N (0, 1). ZatemS2Z
S2R
=1 + ρ
1− ρS2Z
S2R
.
To oznacza, że aby wyznaczyć k1, k2 należy wziąć wartości dla F9,9 i pomnożyć je przez 1+ρ1−ρ , które
przy H0 wynosi 2. Czyli k2 = 2 · 3, 1789 ' 6, 358 oraz k1 = 2 · (1/3, 1789) ' 0, 629
6. (Eg 54/9) Zmienne losowe X i Y są niezależne i zmienna X ma rozkład logarytmiczno-normalnyLN(µ, σ2), gdzie µ = 1 i σ = 2, a zmienna Y ma rozkład wykładniczy o wartości oczekiwanej 2.Niech S = X + Y . Wtedy E(S|X > e) jest równa?Odp: E-> 41, 26.
Rozwiązanie. Przypomnijmy definicję
E(S|X > e) =ES1X>eP(X > e)
.
Teraz zauważmy, że X = eY , gdzie Y ma rozkład N (1, 4), czyli Y = 1 + 2Z, gdzie Z ∼ N (0, 1).Zatem
P(X > e) = P(1 + 2Z > 1) = P(Z > 0) =1
2.
3
Obliczamy
ES1X>e = EX1X>e + P(X > e)EY = Ee1+2Z1Z>0 +1
22 = 1 + eEe2Z1Z>0.
Należy obliczyć
Ee2Z1Z>0 =
∫ ∞0
e2x 1√2πe−
x2
2 dx = e2
∫ ∞0
1√2πe−
12 (x−2)2 .
ZatemEe2Z1Z>0 = e2
∫ ∞−2
1√2πe−
x2
2 dx = e2P(Z > −2).
OstatecznieE(S|X > e) = 2 + 2e3P(Z > −2) ' 41, 26.
7. (Eg 55/4) Załóżmy, że zmienne losowe X,Y mają łączny rozkład normalny taki, że
EX = 1, EY = 0, Var(X) = 2, Var(Y ) = 9, i Cov(X,Y ) = 3.
Oblicz Cov(X2, Y 2).Odp: D-> 18.
Rozwiązanie. Przypomnijmy, że ogólny wzór na k-ty moment zmiennej V rozkładzie N (0, σ2)ma postać
EV 2k = σ2k(2k − 1)(2k − 3)...3 · 1,EV 2k+1 = 0
Aby obliczyć Cov(X2, Y 2) potrzebujemy policzyć EX2Y 2. Po raz kolejny należy posłużyć się bazązłożoną z liniowych względem X,Y zmiennych niezależnych. Ściślej szukamy α takiego, że X−αYjest nieskorelowane z Y , a przez to niezależne bo (X,Y ) tworzą wektor gaussowski. Mamy
Cov(Y,X − αY ) = 3− 9α,
stąd α = 13 . Niech Z = X − 1
3Y , zachodzi EZ = 1, VarZ = 2− 233 + 1
99 = 1. Dalej mamy rozkładX = Z + 1
3Y , stąd
EX2Y 2 = E(Z +1
3Y )2Y 2 = EZ2EY 2 +
2
3EZEY 3 +
1
9EY 4.
Drugi składnik powyżej jest zerem bo EY = 0, a stąd EY 3 = 0. Zauważmy jeszcze, że podobnie
EX2EY 2 = (EZ2 +1
9EY 2)EY 2.
Dlatego
Cov(X2, Y 2) =1
9(EY 4 − (EY 2)2).
Pozostaje zauważyć, że EY 4 = 3 · 92 oraz EY 2 = 9. Zatem
Cov(X2, Y 2) =1
9(3 · 92 − 92) = 2 · 9 = 18.
4
8. (Eg 57/3) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu normalnego owartości oczekiwanej 0 i nieznanej wariancji σ2. Rozważmy estymatory odchylenia standardowegoσ postaci σc = c
∑ni=1 |Xi|. Niech σc oznacza estymator o najmniejszym błędzie średniokwadrato-
wym w klasie rozważanych estymatorów. Wtedy c jest równe ?Odp: D->
√2π
π+2n−2 .
Rozwiązanie. Niech X ma rozkład N (0, σ2). Oczywiście E|X| =√
2√πσ, zatem
f(c) = E(σc − σ)2 = Var(σ) + (Eσ − σ)2 = nc2Var(|X|) + (cn
√2√π− 1)2σ2 =
= nc2(1− 2
π)σ2 + (cn
√2√π− 1)2.
Aby obliczyć punkt minimum znajdujemy z równania f ′(c) = 0. Zachodzi
f ′(c) = 2nc(1− 2
π)σ2 + 2(n2c
2
π− n√
2√π
)σ2.
stąd f ′(c) = 0 dla
n(2
π(n− 1) + 1)c = n
√2√π
czyli c =
√2π
π + 2n− 2.
9. (Eg 58/4) Niech X1, X2, ..., Xn, ..., N będą zmiennymi losowymi. Zmienne X1, X2, ..., Xn, ... mająrozkład logarytmiczno-normalny LN(µ, σ2), gdzie µ = 2, σ2 = 4. Zmienna N ma rozkład Poissonao wartości oczekiwanej 2. Niech SN =
∑Ni=1Xi dla N > 0 oraz SN = 0 dla N = 0. Wtedy
współczynnik asymetrii E(SN−ESN )3
(VarSN )3/2jest równy?
Odp: D-> e6√2.
Rozwiązanie. Niech X ma rozkład LN(µ, σ2), najpierw zauważmy, że
E(SN −ESN )3 = EE[(SN −ESN )3|N ] = EE[(SN −NEX + (N −EN)EX)3|N ] =
= ENE(X −EX)3 + 3EN(N −EN)EXE(X −EX)2 + E(N −EN)3(EX)3.
Zauważmy, że
2 = EN = VarN = E(N −EN)2 = EN(N −EN) = E(N −EN)3
(scentrowane momenty drugi i trzeci dla rozkładu Poissona są równe wartości oczekiwanej). Zatem
E(SN −ESN )3 = 2(E(X −EX)3 + 3EXE(X −EX)2 + (EX)3) = 2EX3.
Z definicji X = exp(Y ), gdzie Y ma rozkład N (µ, σ2), a dalej Y = σZ + µ, gdzie Z ma rozkładN (0, 1). Przypomnijmy wzór n transformatę Laplace’cea dla rozkładu N (0, 1)
E exp(λZ) = exp(λ2
2).
StądEX3 = E exp(3σZ + 3µ) = e
9σ2
2 +3µ = e24.
Zatem E(SN −ESN )3 = 2e24. Analogicznie pokazujemy
VarSN = E(SN −ESN )2 = ENE(X −EX)2 + VarN(EX)2 = 2EX2.
5
MamyEX2 = E exp(2σZ + 2µ) = e2σ2+2µ = e12.
czyli VarSN = E(SN −ESN )2 = 2e12. Obliczamy
E(SN −ESN )3
(VarSN )3/2=
2e24
(2e12)32
=e6
√2.
10. (Eg 59/1) Zmienna losowa X rozkład logarytmiczno-normalny LN(µ, σ2), gdzie µ = 1 i σ2 = 4.Wyznacz E(X−e|X>e)
EX .Odp: C-> 1, 82.
Rozwiązanie. Zauważmy, że X = eY , gdzie Y ma rozkład N (µ, σ2), nadto Y = σZ+µ = 2Z+1,gdzie Z pochodzi z rozkładu N (0, 1). Z definicji
E(X − e|X > e) =E1X>e(X − e)
P(X > e).
Obliczamy
P(X > e) = P(2Z + 1 > 1) = P(Z > 0) =1
2.
ZatemE1X>e(X − e) = eE1Z>0(e2Z − 1) = e(E1Z>0e
2Z − 1
2).
NadtoE1Z>0e
2Z =
∫ ∞0
e2xe−x2
21√2πdx = e2
∫ ∞0
e−(x−2)2
21√2πdx
a stąd
E1Z>0e2Z = e2
∫ ∞−2
e−x2
21√2πdx = e2P(Z > −2).
OtrzymujemyE(X − e|X > e) = 2e3P(Z > −2)− e
z drugiej strony z transformaty Laplace’a
EX = E exp(2Z + 1) = e3.
CzyliE(X − e|X > e)
EX= 2P(Z > −2)− e−2 ' 1, 82.
11. (Eg 60/6) Zmienne losowe X1, X2, ..., X20 są niezależne o jednakowym rozkładzie normalnym owartości oczekiwanej 1 i wariancji 4. Niech S5 =
∑5i=1Xi i E(S2
5 |S20 = 24) jest równa ?Odp: D-> 51.
Rozwiązanie. Niech S15 =∑20i=6Xi. Z jednej strony S20 = S5 + S15 nadto szukamy α takiego,
że
0 = Cov(S5 + S15, S5 − αS15) = Var(S5)− αVar(S15) = 5 · 4− α15 · 4 = 20(1− α3).
Stąd α = 3. Oczywiście
S5 =1
4[(S5 + S15) + 3(S5 −
1
3S15)] =
1
4[S20 + 3(S5 −
1
3S15)].
6
Zatem
E(S25 |S20 = 24) = E
(1
16
[S20 + 3(S5 −
1
3S15)
]2
|S20
)=
=1
16S2
20 +3
8S20E(S5 −
1
3S15) +
9
16E(S5 −
1
3S15)2.
Sprawdzamy
E(S5 −1
3S15) = 0, E(S5 −
1
3S15)2 = 5 · 4 +
15
9· 4 =
80
3.
ZatemE(S2
5 |S20 = 24) =1
16S2
20 +9
16
80
3= 36 + 15 = 51.
12. (Eg 61/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemypróbką X1, ..., Xn z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej 2. Prze-prowadzamy najmocniejszy test hipotezy H0 : µ = 0 przeciwko alternatywie H1 : µ = 2 napoziomie istotności α = 1
2 . Niech βn oznacza prawdopodobieństwo błędu drugiego rodzaju, dlarozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka βn).Odp: E-> limn→∞
βne−n/
√4πn
= 1.
Rozwiązanie. Niech f0, f2 będą gęstościami odpowiednio N (0, 2),N (2, 2). Przypomnijmy, że testnajmocniejszy Neymana Pearsona polega na porównaniu gęstości, czyli zbiór krytyczny ma postać
K = (x1, ..., xn) ∈ Rn :f2(x1, ..., xn)
f0(x1, ..., xn)> C,
gdzie C jest stałą taką, że
Pµ=0((X1, ..., Xn) ∈ K) =1
2.
Łatwo zauważyć, że
K = (x1, ..., xn) :
n∑i=1
xi > C.
Stąd szukamy stałej C takiej, że
Pµ=0(X1 + ...+Xn > C) =1
2
stąd C = 0. Błąd drugiego rodzaju to akceptacja hipotezy H0 podczas, gdy zachodzi H1. Oznaczato, że
βn = Pµ=2(X1 + ...+Xn 6 0).
Przy µ = 2 zachodzi Xi =√
2Zi + 2, gdzie Z,Zi, i = 1, 2, . . . będą niezależne z rozkładu N (0, 1).Stąd
βn = P(√
2(Z1 + ...+ Zn) 6 −2n) = P(√
2nZ 6 −2n) = P(Z 6 −√
2n).
Ponieważ P(Z > t) ' 1√2πt
e−t2
2 , więc
limn→∞
βn
e−n/√
4πn= 1.
7
13. (Eg 62/2) Niech X1, X2, X3, ... będą niezależnymi zmiennymi losowymi o tym samym rozkładzielogarytmiczno normalnym parametrami µ ∈ R i σ > 0. Niech Tn oznacza estymator największejwiarygodności wariancji V 2 w tym modelu w oparciu o próbę X1, X2, ..., Xn. Niech µ = −0, 5 iσ = 1. Wtedy
P(|Tn − V 2|√n > 10, 73) =?
Odp: A-> 0, 134.Rozwiązanie. Zachodzi Xi = eYi , i = 1, 2, ..., n, gdzie Y, Y1, Y2, ..., Yn są niezależne i pochodząz rozkładu N (µ, σ2). Trzeba przypomnieć estymatory największej wiarygodności dla rozkładunormalnego
µn = Y =1
n(Y1 + ...+ Yn), σ2
n = Y 2 − (Y )2 =1
n
n∑i=1
(Yi − Y )2.
Powyższe estymatory wykorzystujemy aby znaleźć estymator wariancji V 2. Mamy
V 2 = VarY = EY 2 − (EY )2 = e2σ2+2µ − eσ2+2µ = e− 1.
Nadto z powyższego wzory wynika, że
Tn = e2µn(e2σ2n − eσ
2n).
Należy pamiętać, że µn i σ2n są niezależne. Mamy
Tn − V 2 = (e2µn − e−1)(e2σ2n − eσ
2n)+
+ e−1(e2σ2n − e2 − eσ
2n − e).
Z mocnego prawa wielkich liczb wynika, że µn → µ, σ2n → σ2 prawie na pewno. Nadto
√n(e2µn − e−1) =
√ne−1(e2µn+1 − 1) =
√ne−1(2µn + 1)(1 +O(2µn + 1)).
Oczywiście w sensie słabej zbieżności
limn→∞
√n(2µn + 1) = N (0, 4).
Stądlimn→∞
√n(e2µn − e−1)(e2σ2
n − eσ2n) = A ' N (0, [2(e− 1)]2)
Ściślej korzystając z σ2n → σ2
limn→∞
√n(e2µn − e−1)(e2σ2
n − eσ2n) = lim
n→∞
√n(e2µn − e−1)(e2 − e) = A.
Analogiczniee2σ2
n − e2 + eσ2n − e = (2e2 − e)
√n(σ2
n − 1)(1 +O(σ2n − 1)).
W sensie słabej zbieżnościlimn→∞
√n(σ2
n − 1) = N (0, 2).
Zatemlimn→∞
e−1(e2σ2n − e2 − eσ
2n − e) = B ' N (0, 2[2e− 1]2).
Ostatecznie korzystając z niezależności µn oraz σ2n dostajemy dla niezależnych A i B
limn→∞
√n(Tn − V 2) = A+B ' N (0, [2(e− 1)2] + 2[2e− 1)]2).
Niech Z będzie z N (0, 1) otrzymujemy
limn→∞
P(|Tn − V 2|√n > 10, 73) = P(|Z| > 10, 73√
[2(e− 1)2] + 2[2(e− 2)]2) = 0, 134.
Przedstawiona metoda ma swoją nazwę jako metoda delta. Powyższy przypadek szczególny możnazebrać w ogólne twierdzenie.
8
Twierdzenie 1 (Metoda delta) Jeżeli dla ciągu zmiennych Tn mamy√n(Tn − µ) → N (0, σ2)
przy n→∞ i h : R→ R jest funkcją różniczkowalną w punkcie µ, to√n(h(Tn)− h(µ))→ N (0, σ2(h′(µ))2),
w sensie zbieżności według rozkładu.
14. (Eg 63/7) Zmienna losowa (X,Y, Z) ma rozkład normalny z wartością oczekiwaną EX = 0,EY = EZ = 1 i macierzą kowariancji 1 1 0
1 4 20 2 4
.Obliczyć Var(X(Y + Z)).Odp: D-> 17.
Rozwiązanie. Stosujemy metodę z uniezależnianiem zmiennych. Z założenia wynika, żeCov(X,Y ) =1 oraz Cov(X,Z) = 0, Cov(Y, Z) = 2. Zatem zmienne X i Z są niezależne, Wystarczy dobrać αi β tak aby Y − αX − βZ było niezależne (czyli równoważnie nieskorelowane) ze zmiennymi X iZ. Sprawdzamy, że
Cov(Y − αX − βZ,X) = 1− α, czyli α = 1
nadtoCov(Y − αX − βZ,Z) = 2− 4β, czyli β =
1
2.
Zatem baza liniowa składa się ze zmiennych niezależnych X, Y = Y − X − 12Z,Z, gdzie X ma
rozkład N (0, 1), zmienna Y ma rozkład N ( 12 , 2), a zmienna Z rozkład N (1, 4). Obliczamy
Var(X(Y + Z)) = Var(XY ) + 2Cov(XY,XZ) + Var(XZ) =
= Var(XY ) + 2Cov(XY ,X(X +1
2Z)) + Var(X(X +
1
2Z))+
+ 2Cov(XY ,XZ) + 2Cov(X(X +1
2Z), XZ) + Var(XZ) =
= EX2EY 2 + EX2EYEZ + EX4 − (EX2)2 +1
4EX2EZ2+
+ 2EX2EYEZ + 2EX2EZ2 = (2 +1
4) +
1
2+ 2 +
5
4+ 1 + 10 = 17.
15. (Eg 64/9) Niech Y1, Y2, ..., Yn będą niezależnymi zmiennymi losowymi, przy czym zmienna Yi,i = 1, 2, ..., n, ma rozkład logarytmiczno-normalny LN(bxi, 1), gdzie x1, x2, ..., xn są znanymiliczbami, a b jest nieznanym parametrem. Załóżmy, że
∑ni=1 x
2i = 4. Niech b będzie estymatorem
największej wiarogodności parametru b, a g = exp(2b) estymatorem funkcji g(b) = exp(2b). Wtedyobciążenie estymatora g
Ebg − g(b)
jest równeOdp: B-> e2b(
√e− 1).
Rozwiązanie. Najpierw obliczamy wiarygodność dla zmiennych Z1, Z2, ..., Zn, gdzie Zi = lnYi,czyli Zi ma postać N (bxi, 1). Obliczamy wiarygodność dla Z1, ..., Zn
L(b, z) = (2π)−n2 exp(−1
2
n∑i=1
(zi − bxi)2).
9
Rozwiązujemy równanie f ′(b) = 0 dla f(b) = lnL(b, z). Wówczas
n∑i=1
(zi − bxi)xi = 0, czyli b =〈x, z〉〈x, x〉
=1
4〈x, z〉.
Stąd
b =1
4
n∑i=1
xiZi.
Pozostaje zauważyć, że b ma rozkład N (b, 14 ). Stąd
Ebg − g(b) = Eb exp(2b)− e2b = e2b(e12 − 1).
10
1 Parametry rozkładówW tej serii będziemy obliczać różne parametry zmiennych losowych. Wymagana jest znajomość własnościrozkładów probabilistycznych oraz umiejętne korzystanie z niezależności zmiennych losowych.
1. (Eg 48/7) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi o jednakowym rozkła-dzie wykładniczym o gęstości
f(x) = 2e−2x gdyx > 0 oraz f(x) = 0 gdy x 6 0.
Niech N będzie zmienną losową, niezależną od X1, X2, ..., Xn, ..., o rozkładzie ujemnym dwumia-nowym P(N = n) = Γ(r+n)
Γ(r)n! pr(1 − p)n dla n = 0, 1, 2, ..., gdzie r > 0 i p ∈ (0, 1) są ustalonymi
parametrami. Niech ZN = min(X1, X2, ..., XN ), gdy N > 0 oraz ZN = 0, gdy N = 0. ObliczE(NZN ) i Var(NZN ).Odp: C-> E(NZN ) = 1−pr
2 i Var(NZN ) = 1−p2r4 .
Rozwiązanie. Dla zmiennej Z z rozkładu wykładniczego Exp(λ) zachodzi EZ = k!λk
, k =0, 1, 2, . . .. Przypomnijmy, ze minimum z niezależnych zmiennych wykładniczych ma rozkład wy-kładniczy o parametrze będącym sumą parametrów dodawanych zmiennych. To znaczy rozkład Zma postać Exp(2n). W szczególności EZn = 1
2n oraz EZ2n = 1
2n2 oraz EZ0 = EZ20 = 0. Obliczamy
E(NZN ) =
∞∑n=0
P(N = n)nEZn =1
2
∞∑n=1
P(N = n) =1
2(1− pr),
E(NZN )2 =
∞∑n=0
P(N = n)n2EZ2n =
∞∑n=1
=1
2
∞∑n=1
P(N = n) =1
2(1− pr).
Stąd
Var(NZN ) =1
4(2− 2pr − 1 + 2pr − p2r) =
1
4(1− p2r).
2. (Eg 49/3) NiechX1, X2, ..., Xn, ... I1, I2, ..., In, ..., N będą niezależnymi zmiennymi losowymi. ZmienneX1, X2, ..., Xn, ... mają rozkład o wartości oczekiwanej 2 i wariancji 1. Zmienne I1, I2, ..., In, ...mają rozkład jednostajny na przedziale (0, 1). Zmienna N ma rozkład ujemny dwumianowyP(N = n)Γ(2+n)
n! ( 34 )2( 1
4 )n dla n = 0, 1, 2, ... Niech SN = 0, gdy N = 0 oraz SN =∑Ni=1 IiXi,
gdy N > 0. Wtedy Var(SN ) jest równa: ?Odp: C-> VarSN = 4
3 .Rozwiązanie. Przypomnijmy własności rozkładu ujemnego dwumianowego EN = 2( 3
4 )−1( 14 ) = 2
3oraz VarN = 2( 3
4 )−2 14 = 8
9 i EN2 = 43 . NiechX ma rozkład taki jakX1, X2, . . . nadto I ma rozkład
taki jak I1, I2, . . . Mamy
ESN =
∞∑n=0
P(N = n)ESn =
∞∑n=0
P(N = n)nEIEX =
∞∑n=1
P(N = n)n = EN.
Nadto
ES2N =
∞∑n=0
P(N = n)ES2n =
∞∑n=0
P(N = n)(nEX2EI2 + n(n− 1)(EXEI)2) =
=
∞∑n=0
P(N = n)(n(n+2
3)) = EN(N +
2
3).
Czyli
VarSN = EN2 +2
3EN − (EN)2 =
4
3+
4
9− 4
9=
4
3.
1
3. (Eg 50/1) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi z rozkładu gamma ogęstości
p(x) = 16xe−4x, gdy x > 0, oraz p(x) = 0 gdyx 6 0.
Niech N będzie zmienną losową niezależna od zmiennych X1, X2, ..., Xn, ... spełniającą
P(N = 0) =1
2, i P(N = 1) = P(N = 2) = P(N = 3) =
1
6.
Niech S = 0, gdy N = 0 oraz S =∑Ni=1Xi, gdy N > 0. Wtedy E(S −ES)3 jest równe ?.
Odp: B-> 716 .
Rozwiązanie. Przypomnijmy momenty dla zmiennej Z z rozkładu Gamma(α, β) zachodzi
EZ =α
β, E(Z −EZ)2 =
α
β2, E(Z −EZ)3 =
2α
β3.
W przypadku zadania α = 2, β = 4, stąd
EX =1
2, E(X −EX)2 =
1
8, E(X −EX)3 =
1
16.
Podobnie wyznaczamy
EN = 1, E(N −EN)2 =4
3, E(N −EN)3 = 1.
Zatem
E(S −ES)3 = E(S −NEX +NEX −ES)3 = EE[(S −NEX +NEX −ES)3|N ] =
= ENE(X −EX)3 + 3E(N −EN)2EXE(X −EX)2 + E(N −EN)3(EX)3 =
=1
16+ 3 · 4
3· 1
2· 1
8+
1
8=
7
16.
4. (Eg 51/7) Załóżmy, że X1, X2, ..., Xn, ... są niezależnymi zmiennymi losowymi o jednakowym roz-kładzie wykładniczym o gęstości
f(x) = exp(−x) dla x > 0.
Zmienna losowa N jest niezależna od X1, X2, ..., Xn, ... i ma rozkład Poissona o wartości oczeki-wanej λ. Niech
Yi = min(Xi, 2), Zi = Xi − Yi,
S(Y ) =
N∑i=1
Yi, S(Z) =
N∑i=1
Zi.
Oblicz Cov(S(Y ), S(Z)).Odp: A-> Cov(S(Y ), S(Z)) = 2λe−2.
Rozwiązanie. Niech Y,Z będą miały rozkład odpowiednio jak X1, X2, . . ., Y1, Y2, . . .. Wyzna-czamy
ES(Y ) = ENEY = λEY
orazES(Z) = EN(EX −EY ) = λEZ.
2
Wyznaczamy
ES(Y )S(Z) =
∞∑n=0
P(N = n)E(
n∑i=1
Yi,
n∑i=1
Zi) =
∞∑n=0
P(N = n)(nE(Y Z) + n(n− 1)EYEZ) =
= ENE(Y Z) + E(N(N − 1))EYEZ = λE(Y Z) + λ2EYEZ.
Mamy
E(Y Z) = 2E(X − 2)+ = 2
∫ ∞t=0
P(X > 2 + t)dt = 2e−2.
StądCov(S(Y ), S(Z)) = 2λe−2
5. (Eg 52/8) Załóżmy, że X1, X2, ..., Xn, ... są niezależnymi zmiennymi losowymi o tym samym roz-kładzie jednostajnym na przedziale [0, 1], zaś N jest zmienną losową o rozkładzie ujemnym dwu-mianowym:
P(N = n) =
(n+ 2
n
)p3(1− p)n dla n = 0, 1, 2, ...
niezależną od zmiennych losowychX1, X2, ..., Xn, ... NiechMN = maxX1, X2, ..., XN, gdyN > 0oraz MN = 0, gdy N = 0. Statystyk otrzymał trzy niezależne obserwacje zmiennej losowej MN
równe0, 0,
1
2.
Wartość estymatora największej wiarogodności dla parametru p otrzymana na podstawie tychdanych jest równa ?Odp: B-> 0, 877.
Rozwiązanie. Zadanie należy rozwiązać przez wyznaczenie wiarygodności, skoro wśród obserwacjipojawiły się dwa zera to znaczy, że dwukrotnie pojawiło się zdarzenie o prawdopodobieństwie p3.Z drugiej strony szansa otrzymania wartości 0 < t 6 1 wynosi
∞∑n=1
P(N = n)P(max(X1, ..., Xn) 6 t) =
∞∑n=1
P(N = n)tn =p3
(1− t(1− p))3,
gdzie ostatnia równość bierze się ze zmiany parametru w rozkładzie ujemnym dwumianowym.Zatem warunkowo na N > 0 zmienna MN ma rozkład ciągły o gęstości
3p3(1− p)(1− t(1− p))4
.
Stąd wiarygodność będzie miała postać
L(p, (0, 0,1
2))) =
48p9(1− p)(1 + p)4
.
Znajdujemy maksimum f(p) = logL(p, (0, 0, 12 )),
0 = f ′(p) = 91
p− 1
1− p− 4
1
1 + p.
Stąd równanie
6p2 + 5p+ 9 = 0, p =−5 +
√406
12' 0, 877.
3
6. (Eg 53/2) Niech X0, X1, ..., Xn, ... będą niezależnymi zmiennymi losowymi o rozkładzie jednostaj-nym na przedziale (0, 2). Niech zmienna losowa N oznacza numer pierwszej ze zmiennych losowychX1, ..., Xn, ... o wartości większej niż X0, zatem
N = infn > 1 : Xn > X0.
Wtedy EXN jest równa?Odp: C-> 3
2 .
Rozwiązanie. Dla ustalonego X0 = x ∈ (0, 2) rozkład Nx = infn >: Xn > x jest rozkłademgeometrycznym z prawdopodobieństwem sukcesu (1 − x). Dalej rozkład XN dla ustalonego N iX0 ma rozkład jednostajny na (x, 2) ze średnią x+2
2 . Zatem
EXN = EE(XN |X0, N) = EX0 + 2
2=
3
2.
7. (Eg 54/4) Zmienna losowa N ma rozkład geometryczny postaci
P(N = k) = (1
4)k
3
4dla k = 0, 1, 2, ...
Rozważamy losową liczbę zmiennych losowychX1, X2, ..., XN przy czym zmienne losoweX1, X2, ..., XN
są niezależne wzajemnie i niezależne od zmiennej losowej N . Każda ze zmiennych Xi ma ten samrozkład o parametrach
EX = 1, E(X2) = 2, E(X3) = 3.
Niech SN =∑Ni=1Xi, gdy N > 0 oraz SN = 0, gdy N = 0. Współczynnik skośności E(SN−ESN )3
(VarSN )32
Odp: B-> 2, 538.
Rozwiązanie. Przypomnijmy, że
E(S −ES)3 = E(S −NEX +NEX −ES)3 = EE[(S −NEX +NEX −ES)3|N ] =
= ENE(X −EX)3 + 3E(N −EN)2EXE(X −EX)2 + E(N −EN)3(EX)3.
Dla rozkładu geometrycznego (startującego z 0) z parametrem p
EN =1− pp
, E(N −EN)2 =(1− p)p2
, E(N −EN)3 =(1− p)(2− p)
p3.
StadEN =
1
3, E(N −EN)2 =
4
9, E(N −EN)3 =
20
27.
DalejEX = 1, E(X −EX)2 = 1, E(X −EX)3 = −1.
Dostajemy
E(S −ES)3 = −1
3+
4
3+
20
27
Podobnie
E(S −ES)2 = ENE(X −EX)2 + E(N −EN)2(EX)2 =1
3+
4
9=
7
9.
Współczynnik skośnościE(SN −ESN )3
(VarSN )32
=47
(7)32
' 2, 538.
4
8. (Eg 55/7) Zmienna losowa N ma rozkład geometryczny
P(N = n) = pn(1− p), dla n = 0, 1, 2, ...,
gdzie p ∈ (0, 1) jest nieznanym parametrem. Rozważamy losową liczbę zmiennych losowych
X1, X2, ..., XN ,
przy czym zmienne losowe X1, X2, ..., XN są niezależne wzajemnie i niezależne od zmiennej losowejN . Każda ze zmiennych Xi ma rozkład jednostajny o gęstości danej wzorem: fθ(x) = 1/θ, dla0 6 x 6 θ oraz 0 w przeciwnym przypadku, gdzie θ > 0 jest nieznanym parametrem. Obserwujemytylko te spośród zmiennych X1, X2, ..., XN , które są większe od 5. Nie wiemy ile jest pozostałychzmiennych ani jakie są ich wartości. Przypuśćmy, że zaobserwowaliśmy następujące wartości
8.5, 10, 6, 7.4, 9, 5.2.
Na podstawie tych danych wyznacz wartości estymatorów największej wiarogodności parametrówθ i p.Odp: C-> θ = 10 i p = 12
13 .
Rozwiązanie. Niech X ma rozkład taki jak X1, X2, . . .. Znajdujemy wiarygodność, szansa żewylosujemy 6 zmiennych większych niż 5 wynosi
(P(X > 5))6∞∑n=0
P(X 6 5)nP(N = n+ 6) = (P(X > 5))6(1− p)p6∞∑n=0
(n+ 6
6
)(5p
θ)n.
Warunkowo względem wymagania, że 6 zmiennych przekroczyło 5 ma gęstość postaci
(P(X > 5))−6(5
θ)6
6∏i=1
1xi<θ.
Nadto z własności rozkładu ujemnego dwumianowego
∞∑n=0
(n+ 6
6
)(5p
θ)n = (1− 5p
θ)−7
Stąd wiarygodność ma postać
L(θ, p;x1, x2, x3, x4, x5, x6) = (1− p)(5p
θ)6
6∏i=1
1xi<θ(1−5p
θ)−7.
Najpierw zauważamy, że θ > 10 (w przeciwnym razie dostajemy 0) nadto dla θ > 0 funkcja L jestmalejąca czyli zatem θ = 10. Wówczas wystarczy znaleźć p dla którego maksimum osiąga funkcjaL(10, p;x1, x2, x3, x4, x5, x6). To oznacza, że trzeba znaleźć punkt maksimum funkcji
f(p) = (1− p)p6(1− 1
2p)−7.
Warunek f ′(p) = 0 jest równoważny
(6p5 − 7p6)(1− 1
2p) +
7
2p6 − 7
2p7.
Stąd p = 1213 .
5
9. (Eg 56/6) Załóżmy, że X1, X2, ..., Xn, ... są niezależnymi zmiennymi losowymi o tym samym roz-kładzie jednostajnym na przedziale [0, 1], zaś N jest zmienną losową o rozkładzie geometrycznym,
P(N = k) = p(1− p)k, gdy k = 0, 1, 2, ...
niezależną od zmiennych losowych X1, X2, ..., Xn, ... Liczba p ∈ (0, 1) jest ustalona. Niech YN =minX1, ..., XN, gdy N > 0 oraz YN = 0, gdy N = 0 i ZN = maxX1, ..., XN, gdy N = 0.Obliczyć P(ZN − YN > 1
2 ).Odp: B-> 1− 4p
(1+p)2 .
Rozwiązanie. Zacznijmy od prostszego zadania, rozkład (Yn, Zn) ma gęstość n(n−1)(z−y)n−210<y<z<1.Zatem
P(Zn − Yn >1
2) =
∫ 1
12
∫ z− 12
0
n(n− 1)(z − y)n−2dydz =
∫ 1
12
n(zn−1 − (1
2)n−1)dz = 1− 1
2n− n 1
2n.
Stąd
P(ZN − YN >1
2) = EP(ZN − YN >
1
2|N) = E(1− 1
2N−N 1
2N) =
1−∞∑k=0
(1 + k)p[(1− p)2−1]k = 1− 2p
1 + p− 2p(1− p)
(1 + p)2= 1
4p
(1 + p)2.
10. (Eg 57/4) NiechX1, X2, ..., Xn, ... I1, I2, ..., In, ..., N będą niezależnymi zmiennymi losowymi. ZmienneX1, X2, ..., Xn, ... mają rozkład wykładniczy o wartości oczekiwanej 1. Zmienne I1, I2, ..., In, ...mają rozkład dwupunktowy P(Ii = 1) = 1 − P(Ii = 0) = 1
2 . Zmienna N ma rozkład ujemnydwumianowy P(N = n) =
(n+1n
)( 3
4 )2( 14 )n dla n = 0, 1, 2, .... Niech SN = 0, gdy N = 0 oraz
SN =∑Ni=1 IiXi, gdy N > 0. Wtedy współczynnik zmienności
√Var(SN )
ESNjest równy: ?
Odp: C->√
132 .
Rozwiązanie. Niech X, I mają rozkład taki jak odpowiednio X1, X2, . . ., I1, I2, . . .. ObliczamyEN = 2/3, VarN = 8/9 (rozkład ujemny dwumianowy B−(α, p) ma wartość oczekiwana α 1−p
p
i wariancję α 1−pp2 ), EI = 1
2 , EX = 1, VarX = 1 (rozkład wykładniczy Exp(λ) ma wartośćoczekiwaną λ i wariancję 1/λ2). Zatem
ESN = ENEIEX = 2(1
4/
3
4)1
2=
1
3.
Z drugiej strony
VarSN = ENVar(IX) + VarN(EIX)2 = EN(EI2EX2 − (EIEX)2) + VarN(EIEX)2 =
=2
3(1
2· 2− (
1
2)2) +
8
9(1
2)2 =
1
2+
2
9=
13
18.
Czyli √Var(SN )
ESN=
√13√2.
11. (Eg 59/8) Załóżmy, że X1, X2, ..., Xn, ... są dodatnimi niezależnymi zmiennymi losowymi o jed-nakowym ciągłym rozkładzie prawdopodobieństwa. Niech R0 = 0 i Rn = maxX1, ..., Xn, gdyn > 0. Niech N i M będą niezależnymi zmiennymi losowymi o rozkładach Poissona, przy czym
6
EN = 1 i EM = 2. Wtedy P(RN+M > RN ) jest równe?Odp: C-> 2
3 (1− e−3).
Rozwiązanie. Zauważmy, że dla n+m > 0
P(Rn+m > Rn) =m
n+m,
bo szanse, że któraś ze zmiennych jest największa są równe a szansa, że dwie zmienne przyjmujątę samą wartość jest zerowa. Zatem
P(RN+M > RN ) = EP(RN+M > RN |N,M) = EM
N +M1N+M>0.
Przypomnijmy, że rozkład warunkowy M pod warunkiem N +M ma postać B( EMEN+EM , N +M)
nadto N +M ma rozkład Poiss(EN + EM). Czyli
EM
N +M1N+M>0 = E
1
N +M1N+M>0E(M |N +M) =
2
3E1N+M>0 =
2
2(1− e−3).
12. (Eg 60/2) Zmienne losowe X1, X2, ..., Xn są warunkowo niezależne przy znanej wartości zmiennejlosowej θ i mają rozkłady o wartości oczekiwanej E(Xi|θ) = 10θ i wariancji Var(Xi|θ) = 100θ2.Niech N będzie zmienną losową warunkowo niezależną od X1, X2, ..., Xn przy znanym θ i o wa-runkowym rozkładzie
P(N = n|θ) = n(1− θ)n−1θ2, dla n = 1, 2, 3, ...
Zmienna losowa θ ma rozkład Beta o gęstości p(θ) = 6θ(1−θ), gdy θ ∈ (0, 1). Niech SN =∑Ni=1Xi.
Wtedy wariancja Var(SNN ) jest równa?Odp: C-> 25.
Rozwiązanie. Zauważmy, że E(N−1|θ) = θ2∑∞n=1(1− θ)n−1 = θ, zatem
E(SNN−E
SNN
)2 = EE[(SN −NE(X|θ)
N+ E(X|θ)−E
SNN
)2|θ] =
= E[E(N−1|θ)Var(X|θ)] + Var(E(X|θ)) = 100Eθ3 + 100Var(θ) =
Dalej Eθ3 = 6∫ 1
0θ4(1 − θ)dθ = 1
5 , Eθ2 = 6∫ 1
0θ3(1 − θ)dθ = 3
10 , Eθ = 6∫ 1
0θ2(1 − θ) = 1
2 , stądVarX = 1
20 . Ogólnie można pamiętać wzór że dla rozkładu Beta(α, β), EX = αα+β , VarX =
αβ(α+β)2(α+β+1) , w zadaniu α = 2, β = 2. Czyli
VarSNN
= 20 + 5 = 25
13. (Eg 61/10) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi o rozkładzie wykład-niczym o wartości oczekiwanej 4. Niech N będzie zmienną losową o rozkładzie geometrycznym ofunkcji p-stwa
P(N = k) =4
5· (1
5)k dla k = 0, 1, 2, ...,
niezależną od zmiennych X1, X2, ..., Xn, ... Niech Sn =∑Ni=1Xi, gdy N > 0 oraz SN = 0 gdy
N = 0. Wtedy P(SN < 5) jest równe: ?Odp: C-> 1− 0, 2e−1.
7
Rozwiązanie. Przypomnijmy, że Sn, n > 1 ma rozkład Gamma(n, 14 ) Obliczamy
P(SN > 5) = EP(SN > 5|N) =
∞∑n=1
P(Sn > 5)P(N = n) =
∞∑n=1
∫ ∞5
1
(n− 1)!4nxn−1e−
14xdx =
=4
5
∫ ∞5
(
∞∑n=1
xn−1
(n− 1)!(20)n)e−
14xdx =
1
25
∫ ∞n=5
e( 120−
14 )xdx =
1
5e−1.
Stąd P(SN < 5) = 1− 0, 2e−1.
14. (Eg 62/9) Niech X1, ..., Xn, ... będą niezależnymi zmiennymi losowymi z rozkładu jednostajnego naprzedziale [0, 1]. Niech N będzie zmienną losową o rozkładzie ujemnym dwumianowym niezależnąod zmiennych X1, ..., Xn, ... o funkcji p-stwa
P(N = n) =(n+ 2)(n+ 1)
2p3(1− p)n, dla n = 0, 1, 2, ...
Niech YN = minX1, ..., XN, gdy N > 0 oraz YN = 0, gdy N = 0 i ZN = maxX1, ..., XN, orazZN = 0 gdy N = 0. Wyznacz E(YNZN ).Odp: E-> p(1−p2)
2 .
Rozwiązanie. Przypomnijmy, że (Yn, Zn) ma rozkład o gęstości n(n − 1)(z − y)n−2106y<z61.Nadto z rozkładu beta wiemy, że
∫ 1
0xα−1(1− x)β−1dx = Γ(a)Γ(b)
Γ(a+b) Zatem podstawiając y = zw
EYnZn =
∫ 1
0
∫ z
0
n(n− 1)yz(z − y)n−2dydz = n(n− 1)
∫ 1
0
zn+1dz
∫ 1
0
w(1− w)n−2dw =1
n+ 2.
Stąd
E(YNZN ) = EE(YNZN |N) = E1
N + 21N>0 =
∞∑n=1
(n+ 1)
2p3(1− p)n.
Z ujemnego rozkładu dwumianowego wiemy, że∑∞n=0(n+ 1)p2(1− p)n = 1. Zatem
E(YNZN ) = −p3
2+p
2=p(1− p2)
2.
15. (Eg 63/6) Niech X1 będzie zmienną losową o rozkładzie jednostajnym na przedziale (0, 1), X2
zmienną losową o rozkładzie jednostajnym na przedziale (0, X1), X3 zmienną losową o rozkładziejednostajnym na przedziale (0, X2) i tak dalej. Niech N oznacza zmienną losową, taką że
P(N = n) =λn
n!(eλ − 1), gdy n = 1, 2, 3, ...,
gdzie λ > 0 jest ustaloną liczbą. Zmienna N jest niezależna od zmiennych X1, X2, X3, .... WtedyE(N !X1 ·X2 · ... ·XN ) jest równaOdp: D-> eλ−λ−1
λ(eλ−1).
Rozwiązanie. Zaważmy, że
E(X1...Xn) = E(X1...Xn−1)E(Xn|X1, ..., Xn−1) = E(X1...Xn−2)X2n−1
2=
= E(X1...Xn−2)E(X2n−1
2|X1, ..., Xn−2) = ... =
1
(n+ 1)!.
8
Zatem
EN !(X1...XN ) =
∞∑n=0
λn
n!(eλ − 1)
1
n+ 1=
=
∞∑n=1
λn
(n+ 1)!(eλ − 1)=eλ − λ− 1
λ(eλ − 1).
9
1 Testowanie hipotezW tej części rozwiązane zostaną zadania dotyczące testowania hipotez. Wymagana jest wiedza z zakresunajmocniejszych testów, ilorazu wiarygodności, parametrów testów statystycznych.
1. (Eg 52/1) Niech X1, X2, ..., X8 będzie próbką z rozkładu prawdopodobieństwa Pareto o dystrybu-ancie
Fθ(x) = 1− 1
xθdla x 6 1 oraz Fθ(x) = 0 dla x < 1,
gdzie θ > 0 jest nieznanym parametrem. Rozpatrzmy zadanie testowania hipotezy H0 : θ = 2przeciwko alternatywie H1 : θ = 4. Zbudowano taki test, dla którego suma prawdopodobieństwbłędów I i II rodzaju, oznaczanych odpowiednio przez α i β, jest najmniejsza. Oblicz tę najmniejsząwartość α+ β.Odp: B-> 0, 3336.
Rozwiązanie. Niech fθ(x) = θxθ+1 będzie gęstością rozkładu Pareto. Testem który dla ustalonegobłędu pierwszego rodzaju (równego α) minimalizuje błąd drugiego rodzaju jest test Neymana-Pearsona, którego obszar krytyczny ma postać
K = (x1, .., x8) :
∏8i=1 f4(xi)∏8i=1 f2(xi)
> C,
gdzie C jest dobrane tak aby Pθ=2(X ∈ K) = α. Nietrudno zauważyć, że K = (x1, .., x8) :∑8i=1 log xi < C dla pewnego C. Zauważmy, że logXi ma rozkład Exp(θ) zatem
∑8i=1 logXi ma
rozkład Gamma(8, θ). Stąd C musi być tak dobrane, że
Pθ=2(
8∑i=1
logXi < C) =
∫ C
0
28
7!x7e−2xdx = α(C).
Z kolei błąd drugiego rodzaju to
Pθ=4(
8∑i=1
logXi 6 C) =
∫ ∞C
48
7!x7e−4xdx = β(C).
Wystarczy znaleźć punkt minimum funkcji α(C) + β(C). Zauważmy, że α′(C) + β′(C) = 0 jeśli
−28e−2C + 48e−4C = 0
stąd C = 4 log 2. Pozostaje albo skorzystać z tablic rozkładu χ2, wtedy dostajemy 0, 3336. Zprzybliżenia rozkładem normalnym. Niech Z będzie z rozkładu N (0, 1)
α(C) = Pθ=2(
∑8i=1 logXi − 4√
2<C − 4√
2) ' P(Z <
(4 log 2)− 4√2
) ' 0, 1927.
oraz
β(C) = Pθ=4(
∑8i=1 logXi − 2√
1/26C − 2√
1/2) ' P(Z >
(8 log 2)− 4√2
) ' 0, 1373.
Zatem α(C) + β(C) ' 0, 330.
2. (Eg 53/3) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu normalnegoN (m+ θ, 1), Y1, Y2, ..., Yn będą niezależnymi zmiennymi losowymi z rozkładu normalnego N (m−θ, 1). Wszystkie zmienne są niezależne. Parametry m i θ są nieznane. Weryfikujemy hipotezęH0 : θ = 0 przy alternatywie H1 : θ = 0, 5 za pomocą testu opartego na ilorazie wiarogodności na
1
poziomie istotności 0, 05. Moc tego testu przy n = 18 jest równa: ?Odp: C-> 0, 913.
Rozwiązanie. Testy oparte na ilorazie i wiarygodności polegają na tym, że porównuje się LK(x) =supθ∈ΘK L(θ, x z LH(x) = supθ∈ΘH L(θ, x). Obszar krytyczny ma zatem postać
K = x ∈ Rn :LK(x)
LH(x)> λ0
dla pewnego λ0 > 1 spełniającego warunek
Pθ(LK(X)
LH(X)> λ0) 6 α, gdy θ ∈ ΘH ,
dla zadanej istotności α. W przypadku tego zadania są tylko dwie hipotezy i dlatego test opartyna ilorazie wiarygodności redukuje się do testu Neymana Pearsona. Najlepiej zapamiętać, że wprzypadku rozwiązywanego zadania obszar krytyczny będzie miał postać K = (x, y) ∈ Rn ×Rn :∑ni=1(xi − yi) > C. Oczywiście wynik ten można potwierdzić rachunkiem zauważmy, że
LK(x, y)
LH(x, y)=
exp(− 12 (∑ni=1[(xi −m− 1
2 ))2 + (yi −m+ 12 )2])
exp(− 12 (∑ni=1[(xi −m))2 + (yi −m)2])
=
= exp(1
2(
n∑i=1
[(xi − yi)−1
2])).
Stąd natychmiast szukana postać obszaru krytycznego. Znajdujemy właściwe C ze wzoru
Pθ=0(K) = P(
n∑i=1
(Xi − Yi) > C) = 0, 05.
Niech Z będzie z rozkładu N (0, 1) oczywiście w sensie rozkładu∑ni=1(Xi − Yi) (przy założeniu
θ = 0) ma postać√
2nZ. Stad C = 6 · 1, 64 nadto dla θ = 12 w sensie rozkładu
∑ni=1(Xi − Yi) ma
postać n+√
2nZ
Pθ= 12(K) = P(n+
√2nZ >
√2n1, 64) = P(Z > 1, 64− n√
2n).
Dla n = 18 dostajemy P(Z > 1, 64− 3) = P(Z > −1, 36) ' 0, 913.
3. (Eg 54/10) Niech X1, X2, X3, X4, X5 będą niezależnymi zmiennymi losowymi z rozkładu o gęstości
pλ(x) = λe−λx, gdy x > 0, oraz pλ(x) = 0 gdyx < 0,
gdzie λ > 0 jest nieznanym parametrem. Niestety nie obserwujemy zmiennych X1, X2, X3, X4, X5
ale zmienne Yi = [Xi], i = 1, 2, 3, 4, 5, gdzie symbol [x] oznacza część całkowitą liczby x. Dyspo-nując próbą Y1, Y2, Y3, Y4, Y5 weryfikujemy hipotezę H0 : λ = 1, przy alternatywie H1 : λ = 3 zapomocą testu o obszarze krytycznym
K = λ > 1, 79,
gdzie λ oznacza estymator największej wiarygodności parametru λ otrzymany na podstawie próbylosowej Y1, Y2, Y3, Y4, Y5. Rozmiar tego testu jest równy (wybierz najlepsze przybliżenie).Odp: C-> 0, 286.
Rozwiązanie. Rozkład zmiennych Yk ma postać
Pλ(Yk = n) = Pλ(Xk ∈ [k, k + 1)) = e−λk − e−λ(k+1) = (1− e−λ)e−λk, dla k > 0,
2
czyli jest rozkładem geometrycznym z prawdopodobieństwem sukcesu p = (1−e−λ). Wiarygodnośćdla rozkładów geometrycznych o prawdopodobieństwie sukcesu p ma postać
L(p, k) =
5∏i=1
p(1− p)ki = p5(1− p)k1+...+k5 , gdzie k = (k1, ..., k5).
Dla ustalonego k niech f(p) = logL(p, k). Szukamy p takiego, że f ′(p) = 0, czyli
f ′(p) =5
p− (k1 + ...+ k5)
1
1− p= 0.
Czyli p = 55+k1+...+k5
. Stąd natychmiast λ = − log(1− p). Ponieważ jest to rosnąca funkcja p, więcobszar krytyczny ma postać K = k ∈ N5 : 5
5+k1+...+k5> 1 − exp(−1, 79). Obliczamy rozmiar
testuPλ=1(
5
5 + Y1 + ...+ Y5> 1− exp(−1, 79)).
Oczywiście przy założeniu λ = 1 zmienna Y1 + ...Y5 ma rozkład B−(5, p), gdzie p = 1−e−1. Zatem
Pλ=1(Y1 + ...+ Y5 < 5[(1− exp(−1, 79))−1 − 1]) = Pλ=1(Y1 + ...+ Y5 6 1)
Przypomnijmy, że p = 1− e−λ. Otrzymujemy
Pλ=1(Y1 + ...+ Y5 = 0) = p5, Pλ=1(Y1 + ...+ Y5 = 1) = 5p5(1− p).
Zatem odpowiedź to p5 + 5p5(1− p), gdzie p = 1− e−1, która w przybliżeniu wynosi 0, 286.
4. (Eg 55/5) Niech X będzie pojedynczą obserwacją z rozkładu o gęstości
pθ(x) =2
θ2(θ − 2|x|) gdy x ∈ [−θ
2,θ
2] oraz pθ(x) = 0 gdy |x| > θ
2,
gdzie θ > 0 jest nieznanym parametrem. Weryfikujemy hipotezę H0 : θ = 1 przy alternatywieH1 : θ 6= 1 za pomocą testu opartego na ilorazie wiarogodności na poziomie istotności 0.2. Moctego testu przy alternatywie θ = 6 jest równa: ?Odp: B-> 0, 76.
Rozwiązanie. Ponownie należy skorzystać z testu opartego na ilorazie wiarygodności. Zauważmy,że w tym przypadku
LK(x)
LH(x)=
supθ pθ(x)
p2(x).
Zauważmy, że x musi należeć do przedziału [− 12 ,
12 ] w przeciwnym przypadku iloraz będzie nie-
skończony. Zatem supθ pθ(x) = supθ2θ2 (θ − 2|x|) przyjmuje maksimum dla ∂pθ(x)
∂θ = 0 czyli
− 4
θ3(θ − 2|x|) +
2
θ2= 0
stąd θ = 4|x|. ZatemLK(x) =
1
4|x|.
To oznacza, żeLH(x)
LK(x)=
1
8|x|(1− 2|x|).
Obliczamy C takie, że
Pθ=1(1
8|x|(1− 2|x|)> C) = 0, 2.
3
Warunek jest równoważny temu, że |x|(1−2|x|) 6 (8C)−1. Niech d =√
1− C−1 czyli |x| 6 1−d4 = a
lub |x| > 1+d4 = b. Zauważmy, że
Pθ(X 6 t) =1− 1
2 [θ − 2|x|]2 0 < t 6 θ2
12 [θ − 2|x|]2 − θ2 < t 6 0
.
Stąd Pθ(|X| 6 a) = 1− [θ−2|a|]2θ2 , jeśli |a| 6 θ
2 , a w przeciwnym razie 1 nadto Pθ(|X| > b) = [θ−2|b|]2θ2
jeśli |b| 6 θ2 , a w przeciwnym razie 0. Zatem
Pθ=1(X ∈ K) = 1− [1− 2|b|]2 + [1− 2|a|]2 = 1 + 2d− 2d(1/2) = 0, 2.
Pozostaje zauważyć, że b− a =
√1−8C2 nadto b2 − a2 =
√1−8C4 . Niech d =
√1− 8C. Zachodzi
Pθ=1(X ∈ K) = 1− [1− 2|a|]2 + [1− 2|b|]2 = 1− 2d+ d = 1− d
Stąd d = 45 a dalej a = 1
20 , b = 920 . Obliczamy moc testu dla θ = 6
Pθ=6(|x| 6 a, |x| > b) = 1−(6− 1
10 )2
36+
(6− 910 )2
36' 0, 76.
5. (Eg 56/5) Obserwujemy niezależne zmienne losowe X1, X2, X3, X4, Y1, Y2, Y3, Y4, Y5. Zmienne lo-sowe X1, X2, X3, X4 mają ten sam rozkład o dystrybuancie Fµ1
. Dystrybuanta Fµ spełnia warunek
Fµ(x) = F (x− µ)
dla pewnej ustalonej, nieznanej, ciągłej, ściśle rosnącej dystrybuanty F . Weryfikujemy hipotezęH0 : µ1 = µ2 przy alternatywie H1 : µ1 < µ2 stosując test o obszarze krytycznym
K = S : S < 16,
gdzie S jest sumą rang zmiennych losowych X1, X2, X3, X4 w próbce złożonej ze wszystkich ob-serwacji ustawionych w ciąg rosnący. Wyznaczyć rozmiar testu.Odp: A-> 18
126 .Rozwiązanie. Test rangi oparty jest o spostrzeżenie, że gdyby µ1 = µ2 wtedy zmienne X iY powinny być losowo wymieszane. W związku z tym wystarczy obliczyć prawdopodobieństwowszystkich układów sprzyjających temu że S < 16 przy założeniu losowego położenia zmiennychX1, ..., X4 po ustawieniu w ciąg rosnący w całej próbce. Sprawdzamy, że jest dokładnie 18 moż-liwych układów nadto wyborów zbiorów 4 elementowych w 9 elementowym jest
(94
)= 126. Stąd
rozmiar testu wynosi 18126 .
6. (Eg 56/10) NiechX1, X2, X3, X4 będą niezależnymi zmiennymi losowymi o identycznym rozkładziegeometrycznym postaci
P(X = k) = p(1− p)k gdy k = 0, 1, 2, ...,
gdzie p ∈ (0, 1) jest nieznanym parametrem. Hipotezę H0 : p = 12 przy alternatywie H1 : p > 1
2weryfikujemy testem jednostajnie najmocniejszym na poziomie istotności 0, 1875. Moc tego testuprzy alternatywie p = 4
5 jest równa:?Odp: E-> 0, 73728.
Rozwiązanie. Test jednostajnie najmocniejszy oparty jest o statystykę T (x) przy której dladowolnego p′ > p funkcja L(p′,k)
L(p,k) jest rosnącą funkcją T (k). Obliczamy
L(p′, k)
L(p, k)=
(1− p′)k1+...+k4
(1− p)k1+...+k4=
(1− p′
1− p
)k1+...+k4
.
4
Zatem szukaną statystyką jest T (k) = −(k1 + ... + k4). W przypadku rozkładów zawsze trzebaliczyć się z problemem randomizacji testu. To znaczy test ma postać
ϕ(k) =
1 gdy T (k) > Cγ gdy T (k) = C0 gdy T (k) < C
Stałe C i γ wyznacza się z warunku Ep= 12ϕ(X) = 0, 1875. Zauważmy, że przy p = 1
2 , X1 + ...+X4
ma rozkład ujemny dwumianowy B−(4, 12 ). Należy znaleźć C ∈ N takie, że Pp= 1
2(X1 + ...+X4 <
C) 6 0, 1875 oraz P(X1 + ... + X4) > 0, 1875. Okazuje się, że C = 2, a test szczęśliwie nie jestzrandomizowany. Obliczamy moc testu dla p = 4
5 .
Pp= 45(X1 + ...+X4 < 2) = 0, 7328.
7. (Eg 57/6) Niech X1, X2, ..., X8 będzie próbką z rozkładu prawdopodobieństwa Pareto o dystrybu-ancie
Fθ(x) = 1− 1
xθdla x 6 1 oraz Fθ(x) = 0 dla x < 1,
gdzie θ > 0 jest nieznanym parametrem. Rozpatrzmy zadanie testowania hipotezy H0 : θ = 4przeciwko alternatywie H1 : θ = 2. Zbudowano taki test, dla którego suma prawdopodobieństwbłędów I i II rodzaju, oznaczanych odpowiednio przez α i β, jest najmniejsza. Oblicz tę najmniejsząwartość α+ β.Odp: B-> 0, 3336.
Rozwiązanie. Zauważmy, że gęstość ma postać fθ(x) = θ8∏8i=1
1xi
θ+1. Stosujemy test NeymanaPearsona, w tym obliczy iloraz wiarygodności
L(2, x)
L(4, x)= 2−8
8∏i=1
x2i = 2−8 exp(2
8∑i=1
log xi).
Zatem obszar krytyczny K = x ∈ R8 : L(2,x)L(4,x) > C można zapisać jako
K = x ∈ R8 :
8∑i=1
log xi > C
Należy zauważyć, że logXi ma rozkład Exp(θ) stąd∑8i=1 logXi ma przy zadanym θ rozkład
Γ(8, θ). Stąd
α(C) + β(C) = Pθ=4(K) + 1−Pθ=2(K) =
=
∫ ∞C
48
7!exp(−4x)dx+
∫ C
0
28
7!exp(−2x)dx = f(C).
Poszukujemy C takiego, że f ′(C) = 0 Równanie f ′(C) = 0 jest równoważna
e−2C = 28e−4C .
Czyli C = 4 log 2. Pozostaje obliczyć α(C)+β(C). Można skorzystać z tablic rozkładu chi-kwadrat,wtedy odpowiedzią jest 0, 3336. Alternatywnie korzystając z rozkładu normalnego dla zmiennej Zz rozkładu N (0, 1)
α(C) = Pθ=4(
∑8i=1 logXi − 2√
1/26C − 2√
1/2) ' P(Z >
(8 log 2)− 4√2
) ' 0, 1373
5
oraz
β(C) = Pθ=2(
∑8i=1 logXi − 4√
2<C − 4√
2) ' P(Z <
(4 log 2)− 4√2
) ' 0, 1927,
a stąd α(C) + β(C) ' 0, 330.
8. (Eg 57/8) Niech X będzie zmienną losową o rozkładzie Weibulla o gęstości
fθ(x) = 3θx2 exp(−θx3), gdy x > 0 oraz fθ(x) = 0 gdy x 6 0.
gdzie θ > 0 jest nieznanym parametrem. Niestety nie obserwujemy zmiennej X, ale zmienną YrównąX−1, gdyX > 1. W wyniku tych obserwacji otrzymujemy prostą próbę losową Y1, Y2, ..., Y10
(nie wiemy ile razy pojawiły się wartości zmiennej X z przedziału (0, 1]) i na jej podstawie wyzna-czamy estymator największej wiarogodności θ parametru θ. Dobierz stałą c tak, aby zachodziłarówność
Pθ(θ < cθ) = 0, 95.
Odp: D-> 1, 57.Rozwiązanie. W zadaniu musimy przejść do zmiennych Yi które mają gęstość fθ(xi|xi > 1). Jestjasne, że p = P(Xi > 1) ma postać
p =
∫ ∞0
3θx2 exp(−θx3)dx =
∫ ∞1
θ exp(−θx)dx = e−θ.
Zatem zmienne Yi mają gęstość eθfθ(yi + 1)1yi>0, stąd wiarygodność ma postać
L(θ, y) = e10θ10∏i=1
fθ(yi + 1)1yi>0.
Aby obliczyć estymator największej wiarygodności rozważmy funkcję f(θ) = logL(θ, y), którejpochodna ma postać jest równa
f ′(θ) = 10 + 101
θ−
10∑i=1
(yi + 1)3.
Stąd θ = 10∑10i=1((Yi+1)3−1)
. Zauważmy, że dla przechodząc do zmiennych obserwowanych Yi tenestymator ma postać
θ =10∑10
i=1((1 + Yi)3 − 1)
Pozostaje sprawdzić dla jakiego c zachodzi
Pθ(θ 610c∑10
i=1(1 + Yi)3 − 1) = 0, 95.
Oczywiście (1 + Yi)3 ma rozkład wykładniczy Exp(θ) przesunięty o 1. Stąd też
∑10i=1(1 + Yi)
3 marozkład Γ(10, θ) przesunięty o 10. Ściślej
∑10i=1(1 + Yi)
3 ma ten sam rozkład co 10 + Y , gdzie Yma rozkład Γ(10, θ). Stąd
Pθ(θ 610c∑10
i=1(1 + Yi)3 − 1) = Pθ(θ 6
10c
Y) = 0, 95.
Łatwo zauważyć, że Y ma ten sam rozkład co Z/(2θ), gdzie Z ma rozkład Γ( 202 ,
12 ) czyli χ2 z 20
stopniami swobody. Zatem0, 95 = P(Z 6 20c)
Z tablic rozkładu χ2 dostajemy 20c ' 31, 410, czyli c ' 1, 57.
6
9. (Eg 58/3) Niech X1, X2, ..., X10 będą niezależnymi zmiennymi losowymi o tym samym rozkładzie.Weryfikowano hipotezę H0 : VarX = 4 przy alternatywie H1 : VarX > 4. Zakładając, że zmiennelosowe X, mają rozkład normalny o wartości oczekiwanej 0 wykorzystano test jednostajnie naj-mocniejszy na poziomie 0, 05. W rzeczywistości zmienne losowe X, mają rozkład o gęstości
fc(x) = c|x| exp(−cx2),
gdzie c > 0 jest nieznanym parametrem. Wyznacz rzeczywisty rozmiar wykorzystanego testu(wybierz najlepsze przybliżenie).Odp: B-> 0, 013.
Rozwiązanie. Korzystamy z testu Neymana Pearsona dla gaussowskich zmiennych losowych.Iloraz wiarygodności dla θ > 4 ma postać
L(θ, x)
L(4, x)=
(2π4)5
(2πθ)5exp(−1
2(1
θ− 1
4)
10∑i=1
x2i )
co jest rosnącą funkcją∑10i=1 x
2i . Zatem obszar krytyczny ma postać
K = x ∈ R10 :
10∑i=1
x2i > C
dla C takiego, że PVarX=4(∑10i=1X
2i > C) = 0, 05. Oczywiście przy VarX = 4 rozkład
∑10i=1X
2i
to rozkład zmiennej 4Z, gdzie Z ma rozkład χ2 z 10 stopniami swobody. Z tablic otrzymujemy,że C/4 = 18, 307. Pozostaje obliczyć
α(c) = Pc(
10∑i=1
X2i > C)
dla Xi o rozkładzie z gęstością fc(x). Zauważmy najpierw, że X2i ma rozkład o dystrybuancie
P(X2i 6 t) = 2P(0 6 Xi 6
√t)
skąd wyznaczamy gęstość c exp(−ct)1t>0, czyli X2i ma rozkład wykładniczy z parametrem c Pa-
rametr c obliczamy z warunku, że EX2i = VarXi = 4. Stąd c = 1/4. Zatem
∑10i=1X
2i ma rozkład
Γ(10, 14 ). Ostatecznie
∑10i=1X
2i ma rozkład jak 2Z, gdzie Z pochodzi z rozkładu Γ( 20
2 ,12 ) czyli
χ2(20). Z tablic odczytujemy, żeP(Z > C/2) ' 0, 013.
10. (Eg 59/9) Zakładając, że zmienne losowe X1, X2, ..., X5, Y1, Y2, , ..., Y5 są niezależnymi zmien-nymi losowymi, przy czym Xi, i = 1, 2, ..., 5 mają rozkłady normalne N (µX , 1), a zmienne Yi,i = 1, 2, ..., 5 mają rozkłady normalne N(µY , 2
2), zbudowano test najmocniejszy dla weryfikacjihipotezy : H0 : µX = µY = 0 przy alternatywie H1 : µX = 1 i µY = −1 na poziomie istotno-ści 0, 05. W rzeczywistości zmienne losowe (Xi, Yi), i = 1, 2, ..., 5 są niezależne i mają rozkładynormalne o parametrach EXi = µX , EYi = µY , VarXi = 1, VarYi = 4, współczynnik korelacjiρ(Xi, Yi) = 0, 5. Przy tych warunkach moc zbudowanego testu jest równa: ?Odp: E-> 0, 87.
Rozwiązanie. Stosujemy test Neymana-Pearsona, obliczamy iloraz wiarygodności
L((1,−1), (x, y))
L((0, 0), (x, y))= exp(
5∑i=1
(xi −yi4
) +25
8)
7
Zatem obszar krytyczny ma postać K = (x, y) ∈ R5 × R5 :∑5i=1(xi − yi
4 ) > C; , gdzie C jesttak dobrane aby
P(µX ,µY )=(0,0)(
5∑i=1
(Xi −Yi4
) > C).
Niech Z będzie z rozkładu N (0, 1). Przy założeniu µX = µY = 0 rozkład∑5i=1(Xi− Yi
4 ) ma postać52Z. Stąd
25C ' 1, 64. Należy więc sprawdzić rozkład
∑5i=1(Xi − Yi
4 ) przy założeniu korelacji orazµX = 1, µY = −1. Obliczamy wartość oczekiwaną E
∑5i=1(Xi− Yi
4 ) = 254 . Obliczamy kowariancję
Cov(Xi, Yi) = 1 i wreszcie wariancję
Var(
5∑i=1
(Xi −Yi4
)) =25
4− 5
2=
15
4.
Zatem∑5i=1(Xi − Yi
4 ) ma rozkład 254 +
√152 Z, gdzie Z ma rozkład N (0, 1). Stąd
P(µX ,µY )=(1,−1)(
5∑i=1
(Xi −Yi4
) 6 C) = P(25
4+
√15
2Z >
5
2· 1, 64) ' 0, 866.
11. (Eg 60/5) Obserwujemy niezależne zmienne losowe X1, X2, X3, Y1, Y2, Y3, Y4, Y5. Zmienne losoweX1, X2, X3 mają ten sam rozkład o dystrybuancie Fµ1
, a zmienne Y1, Y2, Y3, Y4, Y5 mają ten samrozkład o dystrybuancie Fµ2
. Dystrybuanta Fµ warunek
Fµ(x) = F (x− µ)
dla pewnej ustalonej, nieznanej, ciągłej, ściśle rosnącej dystrybuanty F . Weryfikujemy hipotezęH0 : µ1 = µ2 przy alternatywie H1 : µ1 6= µ2 stosując test o obszarze krytycznym
K = S : S < 10 ∨ S > 17,
gdzie S jest sumą rang zmiennych losowych X1, X2, X3 w próbce złożonej ze wszystkich obserwacjiustawionych w ciąg rosnący. Wyznaczyć rozmiar testu.Odp: B-> 0, 250.Rozwiązanie. Korzystamy z testu rangi. Wszystkich możliwych rozmieszczeń 3 elementów wśród8 jest
(83
)= 56. Obliczamy teraz liczbę rozmieszczeń dla zbioru krytycznego to znaczy spełniającą
warunki S < 10 lub S > 17. Dla S < 10 jest ich tyle samo co dla S > 17 czyli 7. Zatem rozmiartestu wynosi 14
56 = 0, 25.
12. (Eg 60/8) Zakładając, że zmienne losowe X1, X2, X3 są niezależne i mają jednakowy rozkładjednostajny na przedziale (−θ, θ), gdzie θ > 0 jest nieznanym parametrem, weryfikujemy hipotezęH0 : θ = 1 przy alternatywieH1 : θ 6= 1 za pomocą testu jednostajnie najmocniejszego na poziomieistotności 0, 2. W rzeczywistości zmienne losowe X1, X2, X3 są niezależne o tym samym rozkładzieo gęstości
p(x) =1
4|x|, gdy x ∈ (−2, 2), oraz p(x) = 0 gdy |x| > 2.
Prawdopodobieństwo zbioru krytycznego rozważanego testu przy tym rozkładzie zmiennychX1, X2, X3
jest równe: ?Odp: B-> 0, 9850.Rozwiązanie. Zazwyczaj testy najmocniejsze są jednostronne. Znajdźmy strukturę testu Ney-mana Pearsona dla θ > 1 opartą o iloraz wiarygodności
L(θ, x)
L(1, x)=
∏3i=1 1|xi|6θ
θ3∏3i=1 1|xi|61
8
jest stale równy 1/θ3 na zbiorze T = max16i63 |xi| 6 1 i może być nieskończony dla T > 1. Tooznacza, że w zbiorze krytycznym znajduje się zbiór x ∈ R3 : T > 1. Dla θ < 1
L(θ, x)
L(1, x)=
∏3i=1 1|xi|6θ
θ3∏3i=1 1|xi|61
co daje 1 gdy T 6 θ oraz 0 gdy T > θ na zbiorze T 6 1, czyli jest rosnącą funkcją statystyki1/T . To oznacza, że w zbiorze krytycznym znajduje się zbiór x ∈ R3 : T (x) 6 C. Pozostajesprawdzić, że dla C dobranego tak, że Pθ=1(T (X) ∈ K) = 0, 2 obszar krytyczny spełnia warunkidostateczne testu Neymana-Persona dla dowolnego θ. Obliczamy
Pθ=1(T (X) 6 C ∪ T (X) > 1) = 0, 2.
Stąd C3 = 0, 2. Przy poprawionej funkcji gęstości dostajemy
Pθ=1(T (X) 6 C ∪ T (X) > 1) = (1
4C2)3 + 1− (
1
4)3 = 0, 985.
13. (Eg 61/1) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi z rozkładu jednostaj-nego na przedziale (0, θ1), a Y1, Y2, ..., Y6 niezależnymi zmiennymi losowymi z rozkładu jednostaj-nego na przedziale (0, θ2) , gdzie θ1, θ2 są nieznanymi parametrami dodatnimi. Wszystkie zmiennesą niezależne. Weryfikujemy hipotezę H0 : θ1 = θ2 przy alternatywie H1 : θ1 = 2θ2 testem oobszarze krytycznym
K = max(X1, X2, ..., X6)
max(Y1, Y2, ..., Y6)> c,
gdzie c jest stałą dobraną tak, aby test miał rozmiar 0, 1. Moc tego testu jest równaOdp: B-> 0, 961.
Rozwiązanie. W tym zadaniu dysponujemy obszarem krytycznym zatem wystarczy przeprowa-dzić odpowiedni rachunek. Najpierw zauważmy, że (max16i66Xi,max16i66 Yi) ma rozkład na R2
o gęstości6t5
θ61
106t6θ16s5
θ62
106s6θ2 .
Zatem
Pθ1,θ2(max16i66Xi
max16i66 Yi> c) =
∫ θ1
0
∫ θ2
0
1 xy>c
36x5y5
θ61θ
62
dydx =
=
∫ θ1
0
∫ θ2∧ xc 36x5y5
θ61θ
62
dydx =
∫ θ1
0
6x5(θ2 ∧ xc )6
θ61θ
62
dx =
=(θ1 ∧ cθ2)12
2c6θ61θ
62
+ 1− (θ1 ∧ cθ2)6
θ61
.
Dla θ1 = θ2 zatem rozmiar testu wynosi
α(c) =(1 ∧ c)12
2c6+ 1− (1 ∧ c)6.
Czyli c6/2 = 1− 0, 1, c6 = 1, 8. Dla θ1 = 2θ2 dostajemy
β(c) =c12
27c6+ 1− c6
26= 1− 1.8
27' 0, 986.
9
14. (Eg 62/1) Każda ze zmiennych losowych X1, X2, ..., X9 ma rozkład normalny z nieznaną wartościąoczekiwaną m1 i wariancją 1, a każda ze zmiennych losowych Y1, Y2, ..., Y9 rozkład normalny z nie-znaną wartością oczekiwaną m2 i wariancją 4. Założono, że wszystkie zmienne losowe są niezależnei wyznaczono, przy tych założeniach, test oparty na ilorazie wiarogodności dla testowania hipotezyH0 : m1 = m2 przy alternatywie H1 : m1 6= m2 na poziomie istotności 0, 05. W rzeczywistościzałożenie to nie jest spełnione:
• co prawda pary zmiennych (X1, Y1), (X2, Y2), ..., (Xn, Yn) są niezależne i mają rozkłady nor-malne, ale
• dla i = 1, 2, ..., 6, Xi, Yi są zależne i współczynnik korelacji Corr(Xi, Yi) = − 12 .
Moc testu przy alternatywie m1 = m2 + 1 jest równa:?Odp: B-> 0, 293.Rozwiązanie. Stosujemy test oparty na ilorazie wiarygodności
LK(x)
LH(x)=
sup(m1,m2)∈K L((m1,m2), x)
supθ∈H L((m1,m2), x).
Obliczamy
sup(µ1,µ2)∈K
L((m1,m2), x) = sup(m1,m2)
(2π)92 (8π)
92 exp(−
9∑i=1
[(xi −m1)2
2+
(yi −m2)2
8]) =
= supm1,m2
(2π)92 (8π)
92 exp(−
9∑i=1
[(xi − x)2
2+
(yi − y)2
8]),
gdyż maksimum jest osiągane dla m1 = x = 1n (x1 + ...+ xn), m2 = y = 1
n (y1 + ...+ yn). Z drugiejstrony
sup(m1,m2)∈H
L((m1,m2), x) = supm1
(2π)92 (8π)
92 exp(−
9∑i=1
[(xi −m1)2
2+
(yi −m1)2
8]) =
= supm1
(2π)92 (8π)
92 exp(−
9∑i=1
[x2i
2+y2i
8− 2
5n(x+
y
4)2]).
Stąd
exp(−9∑i=1
[n(x2
2+y2
8− 2
5(x+
y
4)2)]) = exp(n
9∑i=1
(x− y)2
10).
Zatem obszar krytyczny ma postać
K = (x, y) : |x− y| > C
co warto zapamiętać jako fakt pomocniczy. Obliczamy wartość C
Pm1=m2(|X − Y | > C) = 0, 05.
Przy założeniu X − Y ma rozkład N (0, 59 ) czyli dla Z z rozkładu N (0, 1)
Pm1=m2(|X − Y | > C) = P(
√5
3|Z| > C) = 0, 05.
Zatem 3√5C = 1, 96, C =
√5
3 · 1, 96. Dla m1 = m2 + 1 rozkład X − Y ma wartość średnią 1. Nadtoprzy założeniach o korelacji dla i = 1, 2, ..., 6 zachodzi Cov(Xi, Yi) = −1. Zatem
Var(X − Y ) =11
27.
10
Obliczamy
Pm1=m2+1(|X − Y | > C) = P(|1 +
√11√27Z| > C) ' 0, 293.
15. (Eg 62/3) Załóżmy, że dysponujemy pojedynczą obserwacją X z rozkładu Laplace’a o gęstości
fµ,λ(x) =λ
2e−λ|x−µ|,
gdzie λ > 0 i µ ∈ R są parametrami. Rozważamy zadanie testowania hipotezy
H0 : µ = −1 i λ = 0, 5
przy alternatywieH1 : µ = 0 i λ = 1.
Obszar krytyczny najmocniejszego testu na poziomie istotności α jest postaci
K = x : x ∈ (b, 2).
Moc testu jest równaOdp: C-> 0, 676.
Rozwiązanie. Najmocniejszy test ma konstrukcję testu Neymana-Pearsona czyli powinniśmywyznaczyć iloraz wiarygodności
L((−1, 12 ), x)
L((0, 1), x)= 2 exp(−|x|+ 1
2|x+ 1|).
Zatem obszar krytyczny ma postać K = x ∈ R : −|x|+ 12 |x+1| > C. Stąd C = − 1
2 oraz b = − 23 .
Pozostaje obliczyć moc testu
Pµ=0,λ=1(X ∈ K) =
∫ 2
− 23
1
2e−|x|dx =
=1
2(1− e−2) +
1
2(1− e− 2
3 ) ' 0, 676.
11
1 Warunkowe wartości oczekiwaneW tej serii zadań rozwiążemy różne zadania związane z problemem warunkowania.
1. (Eg 48/1) Załóżmy, że X1, X2, X3, X4 są niezależnymi zmiennymi losowymi o jednakowym rozkła-dzie Poissona z wartością oczekiwaną λ równą 10. Obliczyć ν = Var(X3 +X4|X1 +X2 +X3 = 9)Odp: C-> ν = 12.Rozwiązanie. Przypomnijmy, że rozkład X3 pod warunkiem X1 + X2 + X3 = 9 ma postaćBernoulliego B(9, 12 ). Warto zauważyć, że
Var(X3+X4|X1+X2+X3 = 9) = VarX4+Var(X3|X1+X2+X3 = 9) = λ+9· 13· 23
= 10+2 = 12.
2. (Eg 49/7) Niech X0, X1, X2, ..., Xn, n > 2, będą niezależnymi zmiennymi losowymi z rozkładuPareto o gęstości f(x) = 3
(1+x)4 1x>0. Niech U = minX0, X1, X2, ..., Xn. Wtedy E(U |X0 = 1)jest równaOdp: E-> 1
3n−1 (1− 123n−1 ).
Rozwiązanie. Obliczamy
E(U |X0 = 1) = Emin1, X1, X2, ..., Xn =
= P(minX1, ..., Xn > 1) +
∫ 1
0
P(t < minX1, ..., Xn 6 1)dt =
= (
∫ ∞1
f(x)dx)n +
∫ 1
0
(
∫ 1
t
f(x)dx)ndt = 2−3n +
∫ 1
0
[(1 + t)−3n − 2−3n]dt =
=
∫ 1
0
(1 + t)−3ndt =1
3n− 1(1− 2−3n+1).
3. (Eg 50/2) Niech X i Y będą niezależnymi zmiennymi losowymi każda z rozkładu wykładniczegoo wartości oczekiwanej 1. Niech U = 2X + Y i V = X − Y . Wtedy prawdopodobieństwo P(U ∈(0, 6) i V ∈ (0, 6)) jest równeOdp: C-> 1
2 (1− 4e−3 + 3e−4).Rozwiązanie. Mamy do policzenia prawdopodobieństwo, że (U, V ) ∈ (0, 6)2. Jest jasne, że(U, V ) jest przekształceniem liniowym T (X,Y ). Zatem (U, V ) ∈ (0, 6)2 tłumaczy się na (X,Y ) ∈T−1(0, 6)2. Wystarczy sprawdzić na co przekształcane są punkty (0, 0), (6, 0), (0, 6), (6, 6), dosta-jemy (0, 0), (2, 2), (2,−4), (4,−2) czyli wierzchołki równoległoboku R. Mamy
P((U, V ) ∈ (0, 6)2) = P((X,Y ) ∈ R) =
∫ 2
0
∫ x
0
e−ydydx+
∫ 3
2
∫ 6−2x
0
e−ydye−xdx =
=
∫ 2
0
(e−x − e−2x)dx+
∫ 3
2
(e−x − e−6+x)dx = 1− e−2 − 1
2(1− e−4) + e−2 − e−3 − e−3 + e−4 =
=1
2(1− 4e−3 + 3e−4.
4. (Eg 51/1) Niech będzie dwuwymiarową zmienną losową o funkcji gęstości f(x, y) = 2x2+ 43xy10<x<110<y<1
Niech S = X + Y i V = Y −X. Wyznacz E(V |S = 1).Odp: C-> − 3
8 .Rozwiązanie. W tym zadaniu należy wyznaczyć trzeba wyznaczyć rozkład (S, V ) mamy
fS,V (s, v) =1
2f(
1
2(s− v),
1
2(s+ v)) = [
1
4(s− v)2 +
1
6(s2 − v2)]1|v|<min(s,2−s).
1
Pozostaje zatem wyznaczyć rozkład warunkowy
fS,V (v|s = 1) =[ 14 (1− v)2 + 1
6 (1− v2)]1|v|<1∫ 1
−114 (1− v)2 + 1
6 (1− v2)dv=
=9
8[1
4(1− v)2 +
1
6(1− v2)]1|v|61.
Obliczamy
E(V |S = 1) =
∫ 1
−1
9
32v(1− v)2 +
3
16(v − v3)dv = −3
8.
5. (Eg 52/7) Niech (X,Y ) będzie dwuwymiarową zmienną losową o funkcji gęstości
f(x, y) = e−x1x>010<y<1.
Niech Z = X + 2Y . Wtedy łączny rozkład zmiennych Z,X jest taki, żeOdp: D-> jego funkcja gęstości na zbiorze (z, x) : 0 < x < z < 2 + x wyraża się wzoremg(z, x) = 1
2e−x.
Rozwiązanie. Mamy przekształcenie (Z,X) = T (X,Y ), gdzie T jest przekształceniem liniowymT (X,Y ) = (X+2Y,X). Zatem T−1(Z,X) = (X, 12 (Z−X)), nadto moduł z wyznacznika |DT−1| =12 . Obliczamy
fZ,X(z, x) =1
2f(x,
1
2(z − x)) =
1
2e−x1x>010< 1
2 (z−x)<1 =1
2e−x10<x6z62+x.
6. (Eg 53/1) Zmienna losowa X ma rozkład wykładniczy o wartości oczekiwanej 1, a zmienna losowa Yrozkład wykładniczy o wartości oczekiwanej 2. Obie zmienne są niezależne. Oblicz E(Y |X+Y = 3)Odp: A-> 1, 86.Rozwiązanie. Należy wyznaczyć wspólny rozkład (Y,X + Y ) = T (X,Y ). Zatem T−1(U, V ) =(V − U,U) oraz |DT−1| = 1 co oznacza, że
fY,X+Y (u, v) = e−(v−u)1
2e−
12u1v−u>01u>0 =
1
2e−v+
12u1v>u>0.
Stąd
fY,X+Y (u|v) =e
12u1v>u>0
2(e12 v − 1)
.
Zatem
E(Y |X + Y = 3) = (1− e−3)−1∫ 3
0
ue−udu =4 + 2 · e 3
2
2(e32 − 1)
' 1, 86.
7. (Eg 54/2) Załóżmy, że niezależne zmienne losowe X1, X2, ..., Xn mają rozkłady wykładnicze owartościach oczekiwanych równych EXi = 1
i , i = 1, 2, ..., n. Wtedy prawdopodobieństwo P(X1 =minX1, X2, ..., Xn) jest równeOdp: D-> 2
n2+n .Rozwiązanie. Przypomnijmy, że min(X2, ..., Xn) ma rozkład wykładniczy którego parametr jestsumą parametrów poszczególnych zmiennych to znaczy Exp(2 + 3 + ... + n) = Exp( (n+1)n
2 − 1).Nadto jeśli X,Y są niezależne z rozkładu Exp(1), to X1 ∼ X, min(X2, ..., Xn) ∼ 2
n2+n−2Y . Zatem
P(X1 = minX1, X2, ..., Xn) = P(X 62
n2 + n− 2Y ) = EP(X 6
2
n2 + n− 2Y |X) =
=
∫ ∞0
e−n2+n−2
2 xe−xdx =2
n2 + n.
2
8. (Eg 56/3) Niech (X,Y ) będzie dwuwymiarową zmienną losową o funkcji gęstości
f(x, y) =2
x31x>1116y62.
Niech S = X + Y i V = X − Y . Wtedy P(V < 1|S = 4) jest równeOdp: C-> 81
125 .Rozwiązanie. Należy wyznaczyć rozkład (V, S) = (X−Y,X+Y ) = T (X,Y ). Mamy T−1(V, S) =( 12 (S + V ), 12 (S − V )), |DT−1| = 1
2 , stąd
fV,S(v, s) =1
2f(s+ v
2,s− v
2) =
8
(s+ v)31s+v>2126s−v64
ZatemfS,V (v|s = 2) =
288
5(4 + v)3106v62.
Pozostaje obliczyć
P(V < 1|S = 4) =
∫ 1
0
288
5(4 + v)3dv =
81
125.
9. (Eg 57/5) Niech X i Y będą niezależnymi zmiennymi losowymi z rozkładów o gęstościach fX(x) =32x2e−4x1x>0, fY (x) = 16xe−4x1x>0. Wtedy E(X − Y |X + Y = s) jest równaOdp: C-> 1
5s.Rozwiązanie. W tym zadaniu szczęśliwie mamy te same parametry przy rozkładach gamma.Rozkład zmiennej X ma postać Γ(3, 4) rozkład Y ma postać Γ(2, 4). Możemy skorzystać z wiedzy,że rozkład X pod warunkiem X + Y ma rozkład Beta(3, 2) (niezależny od X + Y ), natomiastrozkład Y ma rozkład Beta(2, 3) (niezależny od X+Y ). Przypomnijmy, że dla rozkładu Beta(α, β)wartość oczekiwana wynosi α
α+β . Zatem
E(X − Y |X + Y = s) = sEX
X + Y− sE Y
X + Y= s(
3
5− 2
5) =
s
5.
10. (Eg 58/10) Niech Z1, Z2, ..., Zn będą niezależnymi zmiennymi losowymi o rozkładzie jednostajnymna przedziale (−1, 1). Wyznaczyć E(Z1+Z2+...+Zn|max(Z1, Z2, ..., Zn) = t), gdzie t jest ustalonąliczba z przedziału (−1, 1))
Odp: E-> (n+1)t−n+12 .
Rozwiązanie. Problem najpierw redukujemy do zmiennych X1, X2, ..., Xn z rozkładu jednostaj-nego na (0, 1) podstawieniem Zi = −1 + 2Xi. Stąd
E(Z1 + ...+ Zn|max(Z1, ..., Zn) = t) = −n+ 2E(X1 + ...+Xn|max(X1, ..., Xn) =1 + t
2).
Zauważmy, że max(X1, ..., Xn) ma rozkład o gęstości g(t) = ntn−1 Zatem szukamy funkcji bore-lowskiej F : R→ R takiej, że
EX1 + ...+Xn1max(X1,...,Xn)∈A = EF (max(X1, ..., Zn))1max(X1,...,Xn)∈A =
∫A
F (t)g(t)dt.
Statystyki pozycyjne Xn:1, ..., Xn:n mają rozkład jednostajny na sympleksie 4n = x ∈ Rn : 0 6x1 6 x2... 6 xn 6 1 o gęstości n!106x16...6xn61. Obliczamy
EX1 + ...+Xn1max(X1,...,Xn)∈A = E(Xn:1 + ...+Xn:n)1Xn:n∈A =
= n!
∫4n
(
n∑i=1
xi)1xn∈Adx1...dxn = n!
∫A
(
∫ xn
0
...
∫ x2
0
n∑i=1
xidx1...dxn−1)dxn.
3
Pozostaje zauważyć, że
(n− 1)!
xn−1n
∫ xn
0
...
∫ x2
0
n∑i=1
xidx1...dxn−1 = (xn + (n− 1
2)xn) =
n+ 1
2xn.
Stąd
EX1 + ...+Xn1max(X1,...,Xn)∈A =
∫A
n(n+ 1)
2xnndxn =
∫A
(n+ 1)
2tg(t)dt.
Czyli F (s) = n+12 s. Podstawiając s = 1+t
2 otrzymujemy
E(Z1 + ...+ Zn|max(Z1, ..., Zn) = t) = −n+ 2n+ 1
2
1 + t
2=
(n+ 1)t− n+ 1
2.
11. (Eg 59/3) Zmienne losowe Xj , gdzie j = 1, 2, 3, ... są warunkowo niezależne pod warunkiem zmien-nej Θ i mają rozkłady warunkowe o wartości oczekiwanej Θ i wariancji 4Θ2. Zmienna losowa Npod warunkiem zmiennej losowej Λ = λ ma rozkład Poissona o wartości oczekiwanej λ. Zmienne(X1, X2, ...), N są niezależne. Zmienna Θ ma rozkład Gamma z parametrami (100, 2), a zmiennaΛ ma rozkład Gamma z parametrami (2, 4). Zmienne Λ i Θ są niezależne. Wariancja zmiennejlosowej
SN =
N∑i=1
Xi, dla N > 0 S = 0 dla N = 0
jest równaOdp: E-> 6634, 375.Rozwiązanie. Mamy do policzenia wariancje SN . Najpierw wyznaczamy wartość oczekiwaną
ESN =
∞∑n=0
P(N = n)ESn =
∞∑n=0
P(N = n)EE(Sn|θ) =
= ENEΘ = EE(NΛ)EΘ = EΛEΘ =1
2· 50 = 25.
Obliczamy
ES2N =
∞∑n=0
P(N = n)ES2n =
∞∑n=0
P(N = n)ES2n =
=
∞∑n=0
P(N = n)EE(S2n|θ) =
∞∑n=0
P(N = n)EnVar(X|Θ) + n2(E(X|Θ))2 =
= 4ENEΘ2 + EN2EΘ2 = 4EE(NΛ)EΘ2 + EE(N2|Λ)EΘ2 =
= E(Λ2 + 5Λ)EΘ2 = 7259, 375.
Stąd VarSn = 6634, 375.
12. (Eg 59/6) Niech A, B, C będą zdarzeniami losowymi spełniającymi warunki P(C\B) > 0 iP(B\C) > 0 i P(B ∩ C) > 0 i P(A|C\B) > P(A|B). WtedyOdp: B-> P(A|B ∪ C) > P(A|B).Rozwiązanie. Mamy
P(A|B ∪B) =P(A ∩ (B ∪ C))
P(B ∪ C)=
P(A ∩B) + P(A ∩ (C\B))
P(B) + P(C\B)=
P(A|B)P(B) + P(A|C\B)P(C\B)
P(B) + P(C\B)>
P(A|B)P(B) + P(A|B)P(C\B)
P(B) + P(B\C)= P(A|B).
4
13. (Eg 60/7) Wybieramy losowo i niezależnie dwa punkty z odcinka [0, 2π] Traktując te dwa punktyjako punkty na okręgu o promieniu 1, obliczyć wartość oczekiwaną odległości między nimi (odle-głość mierzymy wzdłuż cięciwy).Odp: B-> 4
π .
Rozwiązanie. Jeden z punktów możemy ustalić. Wtedy wybór drugiego punktu to wybór kąta αtworzonego przez środek okręgu i dwa punktu. Długość cięciwy liczymy ze wzoru 2 sinα/2 gdzieα pochodzi z rozkładu jednostajnego na [0, 2π]. Zatem wartość oczekiwana ma postać
1
2π
∫ 2π
0
2 sinα
2dα =
4
π.
14. (Eg 61/8) Niech U i V będą niezależnymi zmiennymi losowymi z rozkładu jednostajnego naprzedziale (0, 1). Niech
Z =U
12
U12 + V 4
,
wtedy E(Z|U 12 + V 4 < 1) jest równe ?
Odp: B-> 89 .
Rozwiązanie. Zadanie polega na umiejętnym wykorzystaniu rozkładu beta. Zauważmy najpierw,że zmienne (X,Y ) = ( U
12
U12 +V 4
) powstają przez przekształcenie T : (0, 1)2 → (0, 1) × (0, 2) któ-
rego odwrotne ma postać T−1(X,Y ) = ((XY )2, ((1 − X)Y )14 ), a którego jakobian ma postać
|DT−1(x, y)| = 12xy
5(1− x)−34 . Stąd gęstość rozkładu (X,Y ) ma postać
1
2xy
54 (1− x)−
34 (10<x<110<y<1 + 11− 1
y<x<1y116y<2).
Pozostaje obliczyć z rozkładu beta
P(Y < 1) =
∫ 1
0
∫ 1
0
1
2xy
54 (1− x)−
34 dxdy =
2
9
Γ(2)Γ( 14 )
Γ(2 + 14 )
=32
45.
Nadto ponownie z rozkładu beta
EX1Y <1 =
∫ 1
0
∫ 1
0
1
2x2(1− x)−
34 y
54 dxdy =
2
9
Γ(3)Γ( 14 )
Γ(3 + 14 )
=256
405.
Stąd
E(X|Y < 1) =45
32· 256
405=
8
9.
15. (Eg 62/5) Zmienna losowa (X,Y ) ma rozkład prawdopodobieństwa o funkcji gęstości f(x, y) =8xy10<y<x<1. Niech U = X + Y i V = X − Y . Wtedy E(V |U = 4
3 ) jest równa ?Odp: D-> 7
22 .
Rozwiązanie. Obliczamy wspólny rozkład (V,U) = T (X,Y ). Przekształcenie odwrotne ma po-stać T−1(V,U) = (1
2 (U + V ), 12 (U − V )), którego jakobian ma postać |DT−1| = 12 . Zatem
fV,U (v, u) =1
2f(u+ v
2,u− v
2) = 2(u2 − v2)10<v<min(u,2−u)10<u<2.
Pozostaje wyznaczyć gęstość warunkową
fV,U (v|u =4
3) =
81
88(16
9− v2)10<v< 2
3.
5
Obliczamy
E(V |U =4
3) =
∫ 23 0 81
88v(
16
9− v2)dv =
7
22.
6
1 Przedziały ufnościW tym rozdziale będziemy zajmować się przede wszystkim zadaniami związanymi z przedziałami ufności.Będą nas również interesować statystki pozycyjne oraz estymatory największej wiarygodności.
1. (Eg 48/10) Niech X1, X2, ..., Xn, n > 5 będą niezależnymi zmiennymi losowymi o rozkładziejednostajnym na przedziale (0, θ), gdzie θ > 0 jest nieznanym parametrem. Wyznaczamy przedziałufności dla parametru θ postaci
[2X3,n, 2Xn−2,n],
gdzie Xk,n oznacza k-tą statystykę pozycyjną z próby X1, X2, ..., Xn. Dla jakiej najmniejszej li-czebności próby losowej n zachodzi
Pθ(θ ∈ [2X2,n, 2Xn−2,n]) > 0, 9.
Odp: D-> 11.
Rozwiązanie. Należy pamiętać, że dla ustalonej wartości t zdarzenie Xk,n 6 t jest osiągnięciemco najmniej k sukcesów w doświadczeniu Bernoulliego z prawdopodobieństwem sukcesu F (t) = t/θdla 0 < t < θ, gdzie F jest dystrybuantą rozkładu jednostajnego na (0, θ). Zatem z prawdopodo-bieństwem sukcesu F (t) = t/θ dla 0 < t < θ, gdzie F jest dystrybuantą rozkładu jednostajnegona (0, θ). Zatem
Pθ(X2,n 6θ
26 Xn−2,n) = P(2 6 S 6 n− 2),
gdzie S pochodzi z rozkładu B(n, 12 ). Obliczamy
P(2 6 S 6 n−2) = 1−P(S 6 2)−P(S > n−2) = 1−2(
(n
2
)2−n+n2−n+2−n) = 1−(n2+n+2)2−n.
Dla n = 11 otrzymujemy po raz pierwszy wartość (n2 + n+ 2)2−n mniejszą od 0, 1.
333333
2. (Eg 49/10) Niech X1, X2, ..., X10 będą niezależnymi zmiennymi losowymi o tym samym rozkładzieo gęstości
fθ(x) = θxθ−11x∈(0,1),
gdzie θ > 0 jest nieznanym parametrem. Wyznaczamy przedział ufności dla parametru θ postaci
[cθ, dθ],
gdzie θ = θ(X1, X2..., X10) jest estymatorem największej wiarogodności, a stałe c i d są dobranetak, aby Pθ(θ < cθ) = Pθ(θ > dθ) = 0, 05. Wyznaczyć c i d. Odp: A-> c = 0, 54 i d = 1, 57.
Rozwiązanie. Obliczamy wiarygodność
L(θ, x) = θ1010∏i=1
xθ−1i 1xi∈(0,1).
Zatem dla ustalonego x funkcja f(θ) = lnL(θ, x) osiąga maksimum dla θ spełniającego f ′(θ) = 0,czyli
101
θ+
10∑i=1
lnxi = 0.
Stąd
θ = − 10∑10i=1 lnxi
.
1
Pozostaje znaleźć c i d takie, że
Pθ(θ < cθ) = Pθ(θ > dθ) = 0, 05.
Nietrudno sprawdzić, że − lnXi ma rozkład wykładniczy z parametrem θ. Stąd −∑10i=1 lnXi ma
rozkład Gamma(10, θ). Zatem θ/θ ma rozkład Gamma(10, 10), który dalej jest tym samym co120Gamma( 20
2 ,12 ) czyli 1
20χ2(20). To oznacza, że 20c będzie dolnym a 20d górnym kwantylem dla
rozkładu χ2(20) dla wartości 0, 05. Korzystając z tablica znajdujemy c ' 0, 54, d ' 1, 57.
3. (Eg 50/5) NiechX1, ..., Xn, n > 1 będzie próbką z rozkładu jednostajnego o gęstości danej wzorem:
fθ(x) =1
θ1x∈(0,θ),
gdzie θ jest nieznanym parametrem. Zmienne losowe X1, ..., Xn nie są w pełni obserwowalne.Obserwujemy zmienne losowe Yi = min(Xi,M), gdzie M jest ustaloną liczbą dodatnią. Obliczestymator największej wiarogodności θ parametru θ jeśli wiadomo, że w próbce Y1, ..., Yn, jest Kobserwacji o wartościach mniejszych niż M i K ∈ 1, ..., n− 1 Odp: B-> Mn/K.
Rozwiązanie. Z danych zadania dostajemy, że θ > M . Szansa, że dokładnie K zmiennych będziemniejszych niż M wynosi (
n
K
)(M
θ)K(
θ −Mθ
)n−K .
Warto zauważyć, że przy okazji jest to funkcja wiarygodności. Poszukujemy wartości θ dla którejfunkcja f(θ) = lnL(θ, x) przyjmuje maksimum czyli punktu θ takiego, że f ′(θ) = 0. Zachodzi
−n1
θ+ (n−K)
1
θ −M= 0.
Zatem θ = Mn/K.
4. (Eg 51/2) Załóżmy, że X1, X2, ..., Xn, n > 2 są niezależnymi zmiennymi losowymi o jednakowymrozkładzie wykładniczym. Niech S =
∑ni=1Xi. Oblicz
p = P(X1 6 S/2, ..., Xn 6 S/2).
Odp: D-> 1− n2n−1 .
Rozwiązanie. Kluczowe to aby zauważyć, że zdarzeniem przeciwnym do X1 6 S/2, ..., Xn 6 S/2jest
⋃ni=1Xi > S/2. Zatem
P(X1 6 S/2, ..., Xn 6 S/2) = 1− nP(X1 > S/2).
Rozkład X1/S jest postaci Beta(1, n− 1). Stąd
P(X1 6 S/2) =
∫ 1
12
(n− 1)(1− y)n−2dy =1
2n−1.
Stąd p = 1− n2−n+1.
5. (Eg 52/9) Załóżmy, że X1, X2, ..., Xn, ... jest ciągiem niezależnych zmiennych losowych o jednako-wym rozkładzie wykładniczym o gęstości
f(x) =1
µexp(−x/µ) dla x > 0.
2
Zmienna losowa N jest niezależna od X1, X2, ..., Xn, ... i ma rozkład geometryczny dany wzorem:
P(N = n) = p(1− p)n dla n = 0, 1, 2, ...
Niech SN =∑Ni=1 (przy tym S0 = 0, zgodnie z konwencją). Oblicz E(N |SN = s), dla s > 0.
Odp: D-> s(1− p)/µ+ 1.
Rozwiązanie. Stosujemy ogólny wzór Bayesa. Najpierw wyznaczamy gęstość (N,S) względemµ ⊗ λ, gdzie µ jest miarą liczącą na Z, a λ miarą Lebesgue’a na R. Przypomnijmy, że Sn marozkład Gamma(n, 1
µ )
fN,SN (n, s) = p(1− p)n sn−1
(n− 1)!µne−
sµ 1s>01N=0.
Rozkład (N,SN ) ma też atom w (0, 0) który osiąga z prawdopodobieństwem p. Obliczamy gęstośćwarunkową dla s > 0
fN,SN (n|s) =[(1− p)s]n−1
(n− 1)!µn−1e
(1−p)sµ 1n>0.
Zatem
E(N |Sn = s) =
∞∑n=1
n[(1− p)s]n−1
(n− 1)!µn−1e−
(1−p)sµ = 1 +
s(1− p)µ
.
6. (Eg 53/6) Rozważmy zmienne losowe N,X, Y . Wiadomo, że rozkład warunkowy zmiennej losowejN , gdy X = x i Y = y jest rozkładem Poissona o wartości oczekiwanej x. Rozkład warunkowyzmiennej losowej X, gdy Y = y jest rozkładem Gamma(2, y), a rozkład zmiennej Y jest rozkłademGamma(4, 3), gdzie rozkład Gamma(α, β) ma gęstość
pα,β =βα
Γ(α)xα−1e−βx1x>0.
Wtedy wariancja VarN jest równaOdp: B-> 7.
Rozwiązanie. Obliczamy
VarN = EN2 − (EN)2 = EE(N2|X,Y )− (EE(N,X, Y ))2 = E(X2 +X)− (EX)2 =
= EE(X2 +X|Y )− (EE(X|Y ))2 = E6
Y 2+
2
Y− (E
2
Y)2.
Dla zmiennej Z z rozkładu Gamma(α, β) jeśli α > 2, to EZ−2 = β2
(α−1)(α−2) oraz jeśli α > 1, toEZ−1 = β
α−1 . Zatem EY −2 = 32 , EY −1 = 3
3 = 1. Czyli
VarN = 9 + 2− 4 = 7.
7. (Eg 54/8) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi o tym samym rozkładzieo gęstości
pa,b = be−b(x−a)1x>a
gdzie a ∈ R i b > 0 są nieznanymi parametrami. Rozważmy estymator największej wiarygodności(Ta, Tb) wektora parametrów (a, b). Wartości oczekiwane ETa i ETb są równeOdp: D-> ETa = a+ 1
nb , ETb = nn−2b.
3
Rozwiązanie. Obliczamy wiarygodność
L((a, b), x) = bn exp(−bn∑i=1
(xi − a))1min(xi)>a.
Szukamy punktu (a, b) maksymalizującego wiarygodność. Oczywiście Ta = min(x1, ..., xn) nato-miast b wyznaczamy korzystając z funkcji f(b) = lnL((Ta, b), x), rozwiązując równanie f ′(b) = 0czyli
n
b=
n∑i=1
(xi − Ta), zatem Tb =n∑n
i=1(xi − Ta).
Obliczamy
ETa − a =
∫ ∞0
P(Xi − a > t)ndt =
∫ ∞0
e−nbxdx =1
nb,
czyli ETa = a + 1nb . Z powodu braku pamięci rozkładu wykładniczego rozkład
∑ni=1(xi − Ta)
będzie rozkładem (n − 1) zmiennych niezależnych o rozkładzie wykładniczym z parametrem bczyli Gamma(n− 1, b). Obliczamy
ETb = n
∫ ∞0
bn−1
(n− 2)!xn−2e−bxdx =
n
n− 2b.
8. (Eg 55/6) Niech N oraz X1, X2, ... będą niezależnymi zmiennymi losowymi, przy czym N marozkład Poissona z wartością oczekiwaną λ = 1, zaś rozkład każdej ze zmiennych Xn podajenastępująca tabelka: [
x 1 2 3P(Xn = x) 1
214
14
].
Niech S =∑Ni=1Xi dla N > 0 i S = 0 dla N = 0. Oblicz warunkową wartość oczekiwaną
E(N |S = 3).Odp: A-> 27
19 .Rozwiązanie. Mamy klasyczny wzór Bayesa
E(N |S = 3) =
∞∑n=0
nP(N = n|S = 3) =
∞∑n=0
nP(S = 3|N = n)P(N = n)∑∞
m=0 P(S = 3|N = m)P(N = m).
Nadto∞∑n=0
nP(S = 3|N = n)P(N = n) = P(X1 = 3)P(N = 1) + 2(P(X1 = 2, X2 = 1)+
+ P(X1 = 1, X2 = 2))P(N = 2) + 2P(X1 = X2 = X3 = 1)P (N = 3) =
= e−1(1
4+
1
4+
1
16)
oraz∞∑m=0
P(S = 3|N = m)P(N = m) = P(X1 = 3)P(N = 1)+
+ (P(X1 = 2, X2 = 1) + P(X1 = 1, X2 = 2))P (N = 2) + P(X1 = X2 = X3 = 1) =
= e−1(1
4+
1
8+
1
48)
Stąd E(N |S = 3) = 2719 .
4
9. (Eg 56/9) NiechX1, X2, ..., Xn będą zmiennymi losowymi o rozkładzie Pareto(1, a1) a Y1, Y2, ..., Ymbędą zmiennymi losowymi o rozkładzie Pareto(1, a2), gdzie a1, a2 > 0 są nieznanymi parametrami.Wszystkie zmienne są niezależne. Na poziomie ufności 1− α budujemy przedział ufności [dT, cT ]dla parametru a1
a2na podstawie estymatora największej wiarogodności T tegoż parametru w ten
sposób, żePa1,a2(cT <
a1
a2) = Pa1,a2(dT >
a1
a2) =
α
2.
Jeśli α = 0, 1 i m = 4 i n = 5, to przedział ufności ma długośćOdp: E-> 3, 02T .
Rozwiązanie. Jeśli m = 4 i n = 5, to funkcja wiarygodności ma postać
L((a1, a2), (x, y)) = α51α
42
5∏i=1
(xi)−α1−11xi>1
4∏j=1
(yj)−α2−11yj>1.
Zatem estymatorem ENW (α1, α2) jest punkt minimum funkcji f(α1, α2) = lnL((a1, a2), (x, y)),czyli rozwiązanie równania ∂f
∂α1= ∂f
∂α2= 0. Obliczamy
5
α1=
5∑i=1
lnxi,4
α2=
4∑i=1
ln yi.
Stąd α1 = 5∑5i=1 lnXi
, α2 = 4∑4i=1 lnYi
. Zatem
T =α1
α2=
5
4
∑4i=1 lnYi∑5i=1 lnXi
.
Oczywiście∑5i=1 lnXi ma rozkład Gamma(5, α1), a
∑4i=1 lnYi rozkład Gamma(4, α2) nadto te
zmienne są niezależne. Stąd 2α1
∑5i=1 lnXi ma rozkład Gamma( 10
2 ,12 ) = χ2(10), a 2α2
∑4i=1 lnYi
ma rozkład Gamma( 82 ,
12 ) = χ2(8). Zatem a1
a2T ma rozkład Fishera-Snedecora F (10, 8). Odczytu-
jemy z tablic c = 3, 347, d = 0, 326. Stąd długość [dT, cT ] wynosi w przybliżeniu 3, 021T .
10. (Eg 57/7) Niech X1, X2, ..., X10 będą niezależnymi zmiennymi losowymi o tym samym rozkładzieo nieznanej medianie m. Budujemy przedział ufności dla parametru m postaci [X3:10, X7:10], gdzieXk:10 oznacza k-tą statystykę pozycyjną z próby X1, X2, ..., X10. Prawdopodobieństwo P(m ∈[X3:10, X7:10]) jest równeOdp: A-> 114
128 .
Rozwiązanie. Należy zauważyć, że dla ustalonego t szansa, że Xk:10 6 t jest równe prawdopo-dobieństwu uzyskania co najmniej k sukcesów w doświadczeniu Bernoulliego z prawdopodobień-stwem F (t), gdzie F jest dystrybuantą wspólnego rozkładu zmiennych X1, ..., X10. Przyjmujemy,że rozkład jest ciągły (ściślej, że F (m) = 1
2 ), w przeciwnym razie zadanie nie daje się rozwiązać.Wówczas przyjmując, że zmienna S ma rozkład B(10, 1
2 ) zachodzi równość
P(m ∈ [X3:10, X7:10]) = P(3 6 S < 7) = 1− 2(1 + 10 + 45) + 120
210= 1− 23(14 + 15)
29=
99
128.
11. (Eg 58/2) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu Pareto o gę-stości
fθ(x) =θλθ
(λ+ x)θ+11x>0,
gdzie θ, λ > 0 są nieznanymi parametrami. Rozważmy estymatory największej wiarygodnościθn, λn parametrów θ i λ. Chcemy dobrać stałą t tak aby przy n dążącym do nieskończoności
5
prawdopodobieństwo zdarzenia |θn− θ|√n > t było równe 0, 1. Jeżeli θ = 3 i λ = 1, to stała t jest
równaOdp: A -> 19, 7.
Rozwiązanie. W tym zadaniu najprościej skorzystać z twierdzeń o asymptotycznej zbieżności.Twierdzenia te bazują na analizie wiarygodności
L((θ, λ), x) =
n∏i=1
θλθ
(λ+ xi)θ+1, lnL((θ, λ), x) = n(ln θ + θ lnλ)− (θ + 1)
n∑i=1
ln(λ+ xi).
Aby zachodziła asymptotyczna normalność po pierwsze musi być spełniony warunek zgodności.To znaczy, że (θn, λn) → (θ, λ) przynajmniej według prawdopodobieństwa. Okazuje się, że przyróżniczkowalnej funkcji wiarygodności wystarczy aby ∂ lnL = 0, czyli równanie
∂ lnL((θ, λ), x)
∂θ= 0,
∂ lnL((θ, λ), x)
∂λ= 0
miało dokładnie jedno rozwiązanie dla dowolnego n. Sprawdzamy warunek
∂ lnL((θ, λ), x)
∂θ= n(
1
θ+ lnλ)−
n∑i=1
ln(λ+ xi) = 0,
∂ lnL((θ, λ), x)
∂λ= n
θ
λ− (θ + 1)
n∑i=1
1
λ+ xi= 0.
Zatem w rozwiązaniu tego równania parametr θ można wyrazić jako funkcję λ to znaczy
θ =
∑ni=1
λλ+xi
n−∑ni=1
λλ+xi
.
Natomiast powstała po podstawieniu wyliczonego θ funkcja od λ czyli
n(n∑n
i=1λ
λ+xi
− 1) + n
n∑i=1
lnλ
λ+ xi
jest malejąca i zmienia się od +∞ dla λ = 0 do −n dla λ = ∞ zatem ma tylko jedno miejscezerowe.
Jeśli teraz skończone są również drugie pochodne funkcji lnL to rozkłady (λn, θn) mają asympto-tycznie rozkład normalnyN ((λ, θ), Cn), gdzie macierz kowariancji Cn = −(E∂2 lnL)−1. Obliczamyzatem drugie pochodne
−∂2 lnL(θ, λ) =
[nθ2 −nλ +
∑ni=1
1λ+xi
−nλ +∑ni=1
1λ+xi
nθλ2 − (θ + 1)
∑ni=1
1(λ+xi)2
].
Pozostaje obliczyć odpowiednie parametry dla θ = 3 i λ = 1
En
θ2=n
9,
E− n
λ+
n∑i=1
1
λ+Xi= −n+
3
4n = −n
4, E
nθ
λ2− (θ + 1)
n∑i=1
1
(λ+Xi)2= 3n− 4n
3
5=
3n
5,
gdzie korzystamy z faktu E(λ+Xi)k = 3
3+k , dla k > 0. Stąd wynika, że
Cn =
[n9 −n4−n4
3n5
]−1
=15 · 16
n2
[3n5
n4
n4
n9
].
6
W szczególności oznacza to, że (θn−3)√n
12 zbiega według rozkładu do Z z rozkładu N (0, 1). Obli-czamy
limn→∞
P(|θn − θ|√n > t) = lim
n→∞P(|θn − 3|
√n
12>
t
12) = P(|Z| > t
12) = 0, 1.
Z tablic dostajemy t12 ' 1, 64. Stąd t ' 19, 68.
12. (Eg 59/10) Niech X1, X2, ..., X10 będą niezależnymi zmiennymi losowymi o tym samym rozkładziePareto o gęstości
fθ(x) =2θθ
(2 + x)θ+11x>0,
gdzie θ > 0jest nieznanym parametrem. W oparciu o estymator największej wiarogodności Tparametru θ zbudowano przedział ufności dla θ na poziomie ufności 0, 95 postaci [cT, dT ], gdzieliczby c i d dobrano tak, aby Pθ(θ < cT ) = Pθ(θ > dT ) = 0, 025. Liczby c i d są równe Odp: A->c = 0, 48 i d = 1, 71.
Rozwiązanie. Obliczamy estymator ENW (θ), wiarygodność ma postać
L(θ, x) =
10∏i=1
2θθ
(2 + xi)θ+1,
stąd
lnL(θ, x) = 10θ ln 2 + 10 ln θ − (θ + 1)
10∑i=1
ln(2 + xi).
Należy znaleźć rozwiązanie równania ∂ lnL(θ,x)∂θ = 0, czyli
10 ln 2 +10
θ−
10∑i=1
ln(2 + xi) = 0.
To znaczy
θ =10∑10
i=1(ln(2 + xi)− ln 2).
Wyznaczmy rozkład ln(2 +Xi)− ln 2. Dla t > 0
P(ln(2 +Xi)− ln 2 > t) = P(Xi > 2et − 2) = 2θ(2et)−θ = e−θt,
czyli rozkładem ln(2+Xi)− ln 2 jest rozkład wykładniczy z parametrem θ. Stąd∑10i=1(ln(2+Xi)−
ln 2) ma rozkładGamma(10, θ). Zatem 1/T ma rozkład 10−1Gamma(10, θ) = 20−1θ−1Gamma( 202 ,
12 )
czyli 20−1θ−1χ2(20). Niech Z będzie z rozkładu χ2(20), zachodzi
Pθ(θ < cT ) = P(Z < 20c) = 0, 025, Pθ(θ > dT ) = P(Z > 20d) = 0, 025.
Z tablic rozkładu χ2 otrzymujemy 20c ' 9, 591, 20d ' 34, 170, czyli c ' 0, 48, d ' 1, 71.
13. (Eg 60/1) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu o gęstości
fθ(x) =1
θx−
1θ−11x>1,
gdzie θ ∈ (0, 1) jest nieznanym parametrem. Rozważamy nieobciążony estymator parametru θpostaci Tn = aY , gdzie Y = min(lnX1, lnX2..., lnXn) i a jest odpowiednio dobraną stałą (byćmoże zależną od liczebności próby n). Dla θ = 1
3 i ε = 16 zachodzi
Odp: C-> Pθ(|Tn − θ| > ε) = 1− e− 12 + e
32 .
7
Rozwiązanie. Jak nietrudno stwierdzić lnXi ma rozkład wykładniczy Exp( 1θ ). Dalej rozkład Y
ma postać Exp(nθ ) i w końcu aY ma rozkład Exp( naθ ). Stąd a = n, niech teraz Z będzie z rozkładuExp(1), zachodzi
Pθ(|Tn − θ| > ε) = P(|θZ − θ| > ε) = P(|Z − 1| > 1
2).
Czyli
limn→∞
Pθ(|Tn − θ| > ε) = 1−P(Z ∈ [1
2,
3
2]) = 1− e− 1
2 + e−32 .
14. (Eg 61/7) Zmienna losowa X ma rozkład o gęstości
fθ(x) =θ
xθ+11x>1,
gdzie θ > 0 jest nieznanym parametrem. Nie obserwujemy zmiennej X ale zmienną Y równą X,gdy X jest większe od 2. Nie wiemy, ile było obserwacji zmiennej X nie większych niż 2 anijakie były ich wartości. W wyniku tego eksperymentu otrzymujemy próbkę losową Y1, Y2, ..., Y8
Na podstawie próbki budujemy przedział ufności dla parametru θ postaci [c1T, c2T ], gdzie T jestestymatorem największej wiarogodności parametru θ, a stałe c1 i c2 dobrane są tak, by
P(θ < c1T ) = P(θ > c2T ) = 0, 05
Wtedy długość przedziału ufności jest równaOdp: C-> 1, 146T .Rozwiązanie. Interesuje nas rozkład warunkowy X pod warunkiem, że X > 2 który ma gęstość
gθ(x) =θ2θ
xθ+11x>2.
Dalej zadanie jest standardowe, wyznaczamy estymator ENW (θ) z równania ∂ lnL(x,θ)∂θ = 0, czyli
8 ln 2 +8
θ−
8∑i=1
lnxi = 0.
Stąd
T =8∑8
i=1(lnXi − ln 2).
Dalej zauważamy, że lnXi−ln 2 ma rozkład Exp(θ). Stąd∑8i=1(lnXi−ln 2) ma rozkładGamma(8, θ)
i wreszcie T−1 ma rozkład 16−1θ−1Gamma( 162 ,
12 ) = 16−1θ−1χ2(16). To pozwala obliczyć stałe c1
i c2 z tablic rozkładu χ2. Istotnie niech Z będzie z rozkładu χ2(16), zachodzi
P(θ < c1T ) = P(Z < 16c1) = 0, 05, P(θ > c2T ) = P(Z > 16c2).
Zatem 16c1 ' 7, 962, 16c2 ' 26, 296, czyli c1 ' 0, 498, c2 = 1, 644. Długość przedziału ufnościwynosi w przybliżeniu 1, 146T .
15. (Eg 62/7) Niech X1, ..., X10, ..., X30 będzie próbką losową z rozkładu normalnego N (µ, σ2), z nie-znanymi parametrami µ i σ2. Niech
X10 =1
10
10∑i=1
Xi, X30 =1
30
30∑i=1
Xi,
S2 = S210 =
1
9
10∑i=1
(Xi − X10)2.
8
Skonstruowano przedział [X10 − aS, X10 + aS] taki, że
P(X30 ∈ [X10 − aS, X10 + aS]) = 0, 95.
Liczba a jest równaOdp: E-> 0, 584.
Rozwiązanie. W tym zadaniu istotne jest aby umiejętnie przejść do rozkładu t-Studenta. Mamyniezależność X10, X20 = 1
20
∑30i=11Xi oraz S. Nadto X30 = 1
3X10 + 23X20. Stąd
P(X30 ∈ [X10 − aS, X10 + aS]) = P(|X20 − X10| <3
2aS)
Teraz X20 − X10 ma rozkład N (0, 3σ2
20 ). Natomiast∑10i=1(Xi − X10 ma rozkład σ2χ2(n− 1). Stąd
Z =
√20√3
(X20 − X10)
S, ma rozkład t-Studenta
a 9 stopniami swobody. Zatem
P(X30 ∈ [X10 − aS, X10 + aS]) = P(|Z| >√
15a) = 0, 95.
Zatem√
15a = 2, 262, czyli a ' 0, 584
16. (Eg 63/9) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi o tym samym rozkładzieLaplace’a o gęstości
fθ(x) = exp(−2|x− θ|) dla x ∈ R,
gdzie θ jest nieznanym parametrem rzeczywistym. Rozważamy estymator θ parametru θ równymedianie z próby X1, X2, ..., Xn
θ = X[0,5n]:n.
W oparciu o ten estymator budujemy przedział ufności dla parametru θ postaci
(θ − a, θ + a),
gdzie a dobrane jest tak, aby dla każdego θ ∈ R
limn→∞
Pθ(θ ∈ (θ − a, θ + a)) = 0, 95.
Wtedy a jest równeOdp: C-> 0,98√
n.
Rozwiązanie. Niech Fθ będzie dystrybuantą rozkładu fθ, czyli
Fθ(t) =
1− 1
2 exp(−2|t− θ|) t > θ12 exp(−2|t− θ|) t 6 θ.
Przypomnijmy, że rozkład X[0,5n]:n można wyznaczyć korzystając ze zmiennej Borelowskiej Sn(t)z rozkładu B(n, Fθ(t)) to znaczy
Pθ(X[0,5n]:n 6 t) = P(Sn(t) > [0, 5n]).
Z warunków zadania
Pθ(θ ∈ (θ − a, θ + a)) = Pθ(θ − a < θ < θ + a) =
= P(Sn(θ − a) > [0, 5n])−P(Sn(θ + a) > [0, 5n]),
9
gdzie korzystamy z tego, że X[0,5n]:n ma rozkład ciągły. Będziemy tak dobierać ciąg a aby zacho-dziło CTG. Niech Z będzie z rozkładu N (0, 1), wówczas jeśli a = c√
nwtedy na mocy CTG
limn→∞
P(Sn(θ − a) > [0, 5n]) = P(Z > −2c),
gdzie korzystamy z równości
limn→∞
[0, 5n]− Fθ(θ − a)√nFθ(θ − a)(1− Fθ(a− θ))
) = −2c.
Istotnie zauważmy, że
limn→∞
√Fθ(θ − a)(1− Fθ(a− θ)) =
1
2
nadto na mocy przybliżenia e−x ' 1− x dla małych x otrzymujemy
limn→∞
2([0, 5n]− Fθ(θ − a))√n
= −2c
Analogicznielimn→∞
P(Sn(θ + a) > [0, 5n]) = P(Z > 2c).
Dobieramy zatem 2c tak aby P(Z ∈ (−2c, 2c)) = 0, 95. Zatem 2c = 1, 96, czyli c = 0, 98.
10
1 Zadania różneW tym rozdziale znajdują się zadania nietypowe, często dotyczące łańcuchów Markowa oraz własnościzmiennych losowych. Pojawią się także zadania z estymacji Bayesowskiej.
1. (Eg 48/3) Rozważamy łańcuch Markowa X1, X2, ..., na przestrzeni stanów 1, 2, 3 o macierzyprzejścia
P =
12
12 0
14 0 3
40 1 0
,gdzie Pi,j = P(Xn+1 = j|Xn = i) dla i, j = 1, 2, 3. Załóżmy, że rozkład początkowy łańcucha jestwektorem
π = (2
9,
4
9,
1
3),
gdzie πi = P(X1 = i) dla i = 1, 2, 3. Oblicz p = P(X1 = 1|X2 6= 1 ∨X3 6= 1)Odp: B-> 1
8 .Rozwiązanie. Najpierw zauważmy, że rozkład π jest rozkładem stacjonarnym. Obliczamy
P(X1 = 1|X2 6= 1 ∨X3 6= 1) =P(X3 6= 1 ∨X2 6= 1|X1 = 1)P(X1 = 1)
P(X3 6= 1 ∨X2 6= 1).
Oczywiście P(X1 = 1) = π1 = 29 , nadto
P(X3 6= 1 ∨X2 6= 1|X1 = 1) = P(X3 = 3, X2 = 2|X1 = 1) = P (3, 2)P (2, 1) =3
4· 1
2=
3
8.
Obliczamy
P(X3 6= 1 ∨X2 6= 1) = P(X3 = 3, X2 = 2) + P(X3 = 2, X2 = 3) = P (3, 2)π2 + P (2, 3)π3 =
=3
4· 4
9+ 1 · 1
3=
2
3
Stąd
P(X1 = 1|X2 6= 1 ∨X3 6= 1) =1
8.
2. (Eg 50/9) Rozważamy łańcuch Markowa X1, X2, ..., na przestrzeni stanów 0, 1, 2 o macierzyprzejścia
P =
12
12 0
14 0 3
413
13
13
,gdzie Pi,j = P(Xn+1 = j|Xn = i) dla i, j = 0, 1, 2. Niech Z1, Z2, ..., Zn, ... będzie ciągiem zmien-nych losowych o wartościach w zbiorze 0, 1 niezależnych od siebie nawzajem i od zmiennychX1, X2, ..., Xn, ... o jednakowym rozkładzie prawdopodobieństwa:
P(Zi = 1) =3
4i P(Zi = 0) =
1
4.
Niech Yi = ZiXi. Wtedy limn→∞P(Yn > Yn+1) jest równaOdp: E-> 41
144 .Rozwiązanie. Wyznaczamy rozkład stacjonarny łańcucha X1, X2, ..., dostajemy π = ( 10
27 ,827 ,
927 ).
Przechodząc do granicy otrzymamy
limn→∞
P(Yn > Yn+1) = P(Z1 · 0 > Z2X2|X1 = 0)π0 + P(Z1 · 1 > Z2X2|X1 = 1)π1+
+ P(Z1 · 2 > Z2X2|X1 = 2)π2 = P(Z1 = 1)P(Z2 = 1)P(X2 = 0|X1 = 1)π1 + P(Z1 = 1)P(Z2 = 0)π1+
+ P(Z1 = 1)P(Z2 = 1)P(X2 ∈ 0, 1|X1 = 2)π2 + P(Z1 = 1)P(Z2 = 0)π2 = =9
16· 1
4· 8
27+
3
16· 8
27+
9
16· 2
3· 9
27+
3
16· 9
27=
41
144.
1
3. (Eg 51/6) Załóżmy, że X1, X2, ...Xn są niezależnymi zmiennymi losowymi o jednakowym, ciągłymrozkładzie prawdopodobieństwa, mającymi momenty rzędu 1, 2 i 3. Znamy
µ = E(Xi) i σ2 = Var(Xi).
Niech f(x) oznacza gęstość rozkładu pojedynczej zmiennejXi. Wiemy, że rozkład jest symetrycznyw tym sensie, że f(µ + x) = f(µ − x) dla każdego x. Oblicz trzeci moment sumy E(S3
n), gdzieSn = X1 + ...+Xn.Odp: C-> n2µ(nµ2 + 3σ2).
Rozwiązanie. Z faktu symetrii wynika, że
EXi = µ, E(Xi − µ)2 = σ2, E(Xi − µ)3 = 0.
Stąd również E(Sn − nµ) = 0, E(Sn − nµ)2 = nσ2, E(Sn − nµ)3 = 0. Pozostaje obliczyć
E(S3n) = E(Sn − nµ+ nµ)3 = 3n2µσ2 + n3µ3 = n2µ(nµ2 + 3σ2).
4. (Eg 52/3) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu o gęstości
fθ(x) = exp(−2|x− θ|).
Niech Tn = X[0,5n]:n, gdzie [x] oznacza część całkowitą liczby x. Które z poniższych stwierdzeńjest prawdziwe?Odp: A-> limn→∞P(((Tn − θ)
√n > 1) = 0, 023.
Rozwiązanie. Zmienne Xi mają rozkład o dystrybuancie
F (θ + t) =
12 (2− e−2(t−θ)) t > θ12e−2(θ−t) t < θ
Przypomnijmy, że P(Tn 6 t) jest takie same jak to, że zmienna Sn(t) z rozkładu BernoulliegoB(n, F (t)) będzie miała co najmniej [0, 5n] sukcesów. Obliczamy dla zmiennej Sn = Sn(θ + 1√
n)
P(((Tn − θ)√n > 1) = P(Tn > θ +
1√n
) = P(Sn < [0, 5n]) =
= P(Sn − nF (θ + 1√
n)√
nF (θ + 1√n
)(1− F (θ + 1√n
))<
[0, 5n]− n2 (2− e−
2√n )√
n2 (1− 1
2e− 2√
n )e− 2√
n
).
Pozostaje obliczyć
limn→∞
[0, 5n]− n2 (2− e−
2√n )√
n2 (1− 1
2e− 2√
n )e− 2√
n
= −2.
Z drugiej strony z CTG wynika, że
Sn − nF (θ + 1√n
)√nF (θ + 1√
n)(1− F (θ + 1√
n))→ Z,
gdzie Z ma rozkład N (0, 1). Otrzymujemy wynik
P(Z < −2) ' 0, 23.
2
5. (Eg 53/7) Niech X1, X2, ..., X13 będą niezależnymi zmiennymi losowymi o tym samym rozkładzienormalnym N (m, 1). Parametr m jest nieznany i jest realizacją zmiennej losowej o rozkładzienormalnym N (1, 3). Wyznaczamy estymator bayesowski parametru m przy funkcji straty LINEXdanej wzorem
L(m, a) = em−a − (m− a)− 1,
gdzie a oznacza wartość estymatora. Załóżmy, że w wyniku doświadczenia uzyskano próbkę losowątaką, że
∑13i=1Xi = 15. Wtedy estymator bayesowski przyjmuje wartość
Odp: E-> 1916 .
Rozwiązanie. W teorii decyzji statystycznej mamy do czynienia z regułami decyzyjnymi δ : X →A, dalej z funkcjami starty L : Θ×A → R oraz funkcjami ryzyka
R(θ, δ) = Eθ(θ, δ(X)).
W przypadku reguł bayesowskich mamy zadany rozkład a priori ν na przestrzeni parametrów Θ.Dzięki temu można zdefiniować
r(ν, δ) =
∫R(θ, δ)ν(dθ).
Dysponując powyższym funkcjonałem definiujemy optymalną regułę bayesowską δµ jako argumentminimum funkcji r(µ, δ). Wyznaczenie optymalnej reguły bayesowskiej polega na skorzystaniu zewzoru Fubiniego ∫
Θ
∫XL(θ, δ(x))µθ(dx)ν(dθ) =
∫X
∫Θ
L(θ, δ)νx(dθ)µ(dx),
gdzie miara µθ jest rozkładem X na X przy prawdopodobieństwie Pθ, nadto miary µ i νx(θ)wyznacza się ze wzoru
µθ(dx)ν(dθ) = νx(dθ)µ(dx).
Rozkład µx nazywa się rozkładem a posteriori. Dla każdego x ∈ X wybieramy wartość δµ(x) jakoargument minimum funkcji f : A → R
f(δ) =
∫Θ
L(θ, δ)νx(dθ).
Dla L(θ, a) = (θ − a)2 estymatorem bayesowski jest wartość oczekiwana względem νx, nadto dlaL(θ, a) = |θ − a| tym estymatorem jest mediana νx. W przypadku funkcji LINEX L(m, a) =em−a − (m− a)− 1 obliczamy
f ′(δ) =
∫Θ
em−δνx(dm)− 1
Czyli
δ(x) = log
∫Remνx(dm).
Należy zatem wyznaczyć rozkład a posteriori νx. Mamy
µm(dx) = (2π)−n2 exp(−1
2
n∑i=1
(xi −m)2)dx1...dxn
dalej
ν(dm) = (2π3)−12 exp(−1
6(m− 1)2).
3
Stąd µm(dx)ν(dm) jest rozkładem Gaussowskim, a zatem również νxma rozkład Gaussowski, conatychmiast pozwala wyznaczyć jego postać N (
1+3∑n
i=1 xi
1+3n , 31+3n ). Rozkład µ też jest Gaussowski
i można wyznaczyć jego postać, nie ma to jednak znaczenia dla tego zadania. Pozostaje wyznaczyć∫Remνx(dm) = exp(
1 + 3∑ni=1 xi
1 + 3n+
3
2(1 + 3n)).
Stąd
δ(x) =1 + 3
∑ni=1 xi
1 + 3n+
3
2(1 + 3n)=
5 + 6∑ni=1 xi
2(1 + 3n).
Podstawiając n = 13 oraz∑13i=1Xi = 13 dostajemy
δ(X) =19
16.
6. (Eg 54/6) O zmiennych X1, X2, ..., Xn o tej samej wartości oczekiwanej równej µ oraz tej samejwariancji równej µ oraz tej samej wariancji równej σ2 zakładamy, iż:
Cov(Xi, Xj) = ρσ2 dla i 6= j.
Zmienne losowe ε1, ε2, ..., εn są nawzajem niezależne oraz niezależne od zmiennych losowychX1, X2, ..., Xn
i mają rozkłady prawdopodobieństwa postaci:
P(ε1 = 1) = P(εi =1
2) = P(εi = 0) =
1
3.
Wariancja zmiennej losowej S =∑ni=1 εiXi jest równa.
Odp: A-> n12 (5σ2 + 2µ2 + 3(n− 1)ρσ2).
Rozwiązanie. Obliczamy wariancję
Var(S) =
n∑i=1
Var(εiXi) +∑i6=j
Cov(εiXi, εjXj) =
= n[5
12(µ2 + σ2)− 1
4µ2] + n(n− 1)[
1
4ρσ2] =
=n
12(5σ2 + 2µ2 + 3(n− 1)ρσ2).
7. (Eg 55/1) Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przyczym EX = 4, EY = 6. Rozważmy zmienną Z = Y
X+Y . WtedyOdp: B-> mediana rozkładu Z jest równa 0, 4.Rozwiązanie. Poszukujemy C takiego, że
P(Y
X + Y> C) =
1
2.
stąd
1
2= P((1− C)Y > CX) = EP((1− C)Y > CX|X)) =
∫ ∞0
1
4e−
Cx6(1−C) e−
x4 dx =
1
1 + 2C3(1−C)
.
Czyli3(1− C) = 2C, zatem C = 0, 6.
4
8. (Eg 56/8) Cyfry 1, 2, 3, ..., 9 ustawiamy losowo na miejscach o numerach 1, 2, 3, ..., 9. Niech Xbędziezmienną losową równą liczbie cyfr stojących na miejscach o numerach równych cyfrom. Wariancjazmiennej X jest równaOdp: B-> 1.
Rozwiązanie. Warto zapamiętać, że graniczna liczba koincydencji jest zmienną Poissona z pa-rametrem 1, a więc i wariancję równą 1. W przypadku skończonym tego zadania korzystamyze zmiennych włączeniowych X = X1 + ... + X9, gdzie Xi przyjmuje wartość 1 jeśli i-ta cy-fra stoi na swoim miejscu i 0 w przeciwnym przypadku. Jest jasne, że P(Xi = 1) = 1
9 orazP(Xi = 1, Xj = 1) = 1
9 ·18 zatem
VarXi =8
9 · 9, Cov(Xi, Xj) =
1
8 · 9 · 9.
Stąd
Var(X) = 9VarX1 + 9 · 8Cov(X1, X2) =8
9+
1
9= 1.
9. (Eg 57/2) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu jednostajnegona przedziale (0, θ), gdzie θ > 0 jest nieznanym parametrem. Rozważamy estymator parametru θpostaci
Tn = (n+ 1) minX1, X2..., Xn.
Jeśli θ = 1, to dla każdego ε ∈ (0, 1) granica limn→∞P(|Tn − 1| > ε) jest równaOdp: B-> 1− eε−1 − e−ε−1.
Rozwiązanie. Najpierw wyznaczamy rozkład Tn, dla 0 < t < n+ 1
P(Tn > t) = (1− t
n+ 1)n → e−t.
Stąd dla T o rozkładzie wykładniczym
limn→∞
P(|Tn − 1| > ε) = P(|T − 1| > ε) = P(T > 1 + ε) + P(T < 1− ε) =
= e−ε−1 + 1− eε−1.
10. (Eg 57/9) Zmienne losowe X1, X2, ..., Xn, ... są niezależnymi o jednakowym rozkładzie
P(Xn = 1) = P(Xn = 2) = P(Xn = 3) = P(Xn = 4) =1
4.
Niech Y0 = 2 oraz niech dla n = 1, 2, 3, ... zachodzi
Yn =
4 gdy Xn = 4min(Yn−1, Xn) gdy Xn < 4
Oblicz limn→∞P(Yn 6 3)Odp: B-> 3
4 .
Rozwiązanie. Nietrudno zauważyć, że (Yn)∞n=0 jest łańcuchem Markowa o macierzy przejścia
P =
34 0 0 1
414
24 0 1
414
14
14
14
14
14
14
14
5
Obliczamy rozkład graniczny ze wzoru π = πP , zachodzi π = ( 12 ,
16 ,
112 ,
14 ). Zatem
limn→∞
P(Yn 6 3) = π + 1 + π + π3 =3
4.
11. (Eg 58/1) Niech X1, X2, ..., Xn, ... będą zmiennymi losowymi o tym samym rozkładzie ujemnymdwumianowym
Pθ(Xi = k) = (k + 1)θ2(1− θ)k, k = 0, 1, 2, ..., i = 1, 2, ..., n+ 1,
gdzie θ ∈ (0, 1) jest nieznanym parametrem. Zmienne X1, X2, ..., Xn, Xn+1 są warunkowo nieza-leżne przy danym θ. Załóżmy, że rozkład a priori parametru θ jest rozkładem o gęstości
π(θ) = 12θ2(1− θ), gdy θ ∈ (0, 1).
Na podstawie próby losowej X1, X2, ..., Xn wyznaczamy predyktor bayesowski. zmiennej Xn+1
przy kwadratowej funkcji straty. Wariancja tego predykatora jest równaOdp: D-> 8n
n+1 .
Rozwiązanie. Podstawową wiedzą z teorii warunkowych wartości oczekiwanych jest, że przykwadratowej funkcji straty najlepszym estymatorem Xn+1 jest E(Xn+1|X1, ..., Xn), gdzie wartośćoczekiwana oznacza całkowanie względem miary Pθµ(dθ). Oczywiście z warunkowej niezależnościX1, .., Xn pod warunkiem Θ = θ dostajemy
E(Xn+1|X1, ...., Xn) = E(E(Xn+1|Θ, X1, ..., Xn)|X1, ..., Xn) =
= E(21−Θ
Θ|X1, ..., Xn).
Musimy wyznaczyć rozkład warunkowy Θ pod warunkiem X1 = k1, ..., Xn = kn. Najpierw wy-prowadzamy gęstość rozkładu łącznego
f(θ, k) = 12θ2(n+1)(1− θ)1+∑n
i=1 ki
n∏i=1
(ki + 1).
Pozostaje wyznaczyć, gęstość f(θ|k). Nietrudno zauważyć, że jest rozkład Beta(2n+3, 2+∑ni=1 ki).
Dla zmiennej Z z rozkładuBeta(α, β) oraz α > 1 wartośćEZ−1 = α+β−1α−1 ,EZ−2 = (α+β−1)(α+β−2)
(α−1)(α−2) .Stąd
E(21−Θ
Θ|X1, ..., Xn) = 2 ·
2 +∑ni=1Xi
2(n+ 1)=: T.
Nadto X1 + ...+Xn pod warunkiem Θ = θ ma rozkład ujemny dwumianowy B−(2n, θ). Zatem
VarT = EVar(T |Θ) + VarE(T |Θ).
Z własności rozkładu ujemnego dwumianowego
E(T |Θ) =2n
n+ 1
1
Θ− 2(n− 1)
n+ 1
orazVar(T |Θ) =
8n
4(n+ 1)2· 1−Θ
Θ2.
Korzystając z własności rozkładu Beta(3, 2) obliczamy
VarE(T |Θ) = 8n2
(n+ 1)2
6
nadtoEVar(T |Θ) = 8
n
(n+ 1)2
Podsumowując VarT = 8nn+1 .
12. (Eg 58/8) Załóżmy, że W1,W2, ...,Wn, ... jest ciągiem zmiennych losowych takim, że
• zmienna W1 ma rozkład jednostajny na przedziale (0, 1),
• dla każdej liczby naturalnej n zmienna losowa Wn+1 warunkowo przy danych W1,W2, ...,Wn
ma gęstość
f(wn+1|w1, ..., wn) =
1 gdy wn 6 0, 53x2 gdywn > 0, 5
dla wn+1 ∈ (0, 1).
Wtedy limn→∞P(Wn > 0, 25) jest równaOdp: B-> 15
16 .
Rozwiązanie. Nietrudno zauważyć, że mamy do czynienia z jednorodnym łańcuchem Markowazdanym przez funkcję przejścia
P (x,A) = |A|1x6 12
+
∫A
3y2dy1x> 12.
Poszukujemy rozkładu stacjonarnego π na [0, 1] takiego, że
π(A) = |A|π([0,1
2]) +
∫A
3y2dyπ((1
2, 1])
Stąd natychmiast wynika, że π jest absolutnie ciągłą względem miary Lebsegue’a której gęstość fspełnia warunek
f(x) = π([0,1
2])106x61 + π(
1
2, 1])3x2106x61.
Współczynniki a = π([0, 12 ]), b = π(( 1
2 , 1]) wyznaczamy ze wzorówa = a 1
2 + b 18
1 = a+ b
Stąd 4a = b oraz a = 15 , b = 4
5 . Obliczamy
limn→∞
P(Wn >1
4) = π((
1
4, 1]) =
=1
5
3
4+
4
5(1− 1
64) =
3
20+
63
80=
75
80=
15
16.
13. (Eg 59/4) Dysponujemy dwiema urnami. W urnie I mamy dwie kule białe i jedną czarną, w urnieII mamy trzy kule białe i trzy czarne. Powtarzamy n razy eksperyment polegający na tym, żelosujemy jedną kulę z urny I, nie oglądając jej wkładamy ją do urny II, następnie losujemy jednąkulę z urny II i nie oglądając jej wkładamy ją do urny I. Niech Xn oznacza zmienną losową równąliczbie kul białych w urnie I po n doświadczeniach. Wtedy limn→∞E(XnXn+1) jest równaOdp: C-> 65
21 .
Rozwiązanie. Ponownie korzystamy z teorii łańcuchów Markowa. Pod długim czasie rozkład kulbędzie się stabilizował, aby wyznaczyć rozkład graniczny piszemy macierz przejścia dla liczby kul
7
w I urnie
P =
S 0 1 2 30 2
757 0 0
1 221
1121
821 0
2 0 621
1221
321
3 0 0 47
37
Rozwiązujemy układ równań
π0 = 27π0 + 2
21π1
π1 = 57π0 + 11
21π1 + 621π2
π3 = 321π2 + 3
7π3
1 = π0 + π1 + π2 + π3
którego rozwiązaniem jest π0 = 121 , π1 = 15
42 , π2 = 1021 , π3 = 5
42 . Zatem
limn→∞
E(XnXn+1) = Eπ(X0X1) =
3∑k=0
3∑l=0
klP (k, l)πk.
Czyli
limn→∞
E(XnXn+1) = 1 · 1 · 11
21· 15
42+ +1 · 2 8
21· 15
42+ 2 · 1 · 6
21· 10
21+
+ 2 · 2 · 12
21· 10
21+ 2 · 3 · 3
21· 10
21+ 3 · 2 · 4
7· 5
42+ 3 · 3 · 3
7
5
42=
65
21.
14. (Eg 60/10) Niech X1, X2, ..., Xn, n > 2, będą niezależnymi zmiennymi losowymi z rozkładu Paretoo gęstości
f(x) =3
(1 + x)41x>0.
Niech U = minX0, X1, X2, ..., Xn. Wtedy Cov(U,X0) jest równaOdp: C-> 3
2(3n+1)(3n+2) .
Rozwiązanie. Niech X ma rozkład taki jak X0, X1, X2, ..., Xn. Mamy
P(X > t) =1
(1 + t)3, t > 0.
Stąd EX0 =∫∞
0P(X > t)dt = 1
2 . Nadto
P(U > t) =1
(1 + t)3n, t > 0.
Zatem EU =∫∞
0P(X > t)dt = 1
3n+2 . Pozostaje obliczyć
EUX0 = EX0E(U |X0) = EX0
∫ X0
0
1
(1 + t)3ndt =
=1
3n− 1EX0(1− 1
(1 +X0)3n−1) =
1
2(3n− 1)− 1
3n− 1
∫ ∞0
3t
(1 + t)3n+3dt.
Do policzenia występujących powyżej wartości oczekiwanych najprościej użyć podstawienia x =1
1+t ∫ ∞0
t
(1 + t)3n+3dt =
∫ 1
0
x3n(1− x)dx =Γ(3n+ 1)Γ(2)
Γ(3n+ 3)=
1
(3n+ 1)(3n+ 2).
8
Zatem
Cov(U,X0) =3
3n− 1(1
2− 1
(3n+ 1)(3n+ 2))− 1
2(3n+ 2)=
=9n− 3
2(3n+ 2)(9n2 − 1)=
3
2(3n+ 1)(3n+ 2).
15. (Eg 61/2) Niech zmienna losowa Sn będzie liczbą sukcesów w n (n > 1) próbach Bernoulliego zprawdopodobieństwem sukcesu p. O zdarzeniu losowym A wiemy, że
P(A|Sn = k) = ak
ndla k = 0, 1, 2, ..., n,
gdzie a jest znaną liczbą 0 < a 6 1. Oblicz E(Sn|A).Odp: A-> pn+ 1− p.Rozwiązanie. Obliczamy
P(A) =
n∑k=0
P(A|Sn = k)P(Sn = k) =
n∑k=0
ak
n·(n
k
)pk(1− p)n−k = ap.
Zatem korzystając z własności rozkładu Bernoulliego
E(Sn|A) = P(A)−1n∑k=0
kP(Sn = k ∩A) = (ap)−1n∑k=0
kP(A|Sn = k)P(Sn = k) =
= (ap)−1n∑k=0
ak2
n
(n
k
)pk(1− p)n−k = (1− p) + np.
9
1 Błąd średniokwadratowyW tej części zadań zajmiemy się błędem średniokwadratowym.
1. (Eg 48/9) Zmienne losowe X1, X2, ..., Xn, n > 2 są niezależne i EXi = m oraz VarXi = m2
i ,i = 1, 2, ..., n, gdzie m jest nieznanym parametrem rzeczywistym. Niech m będzie estymatoremparametru m minimalizującym błąd średniokwadratowy w klasie estymatorów postaci
m =
n∑i=1
aiXi,
gdzie ai, i = 1, 2, ...n, są liczbami rzeczywistymi. Wtedy współczynniki ai są równeOdp: D-> ai = 2i
n2+n+2 , i = 1, 2, ..., n.
Rozwiązanie. Obliczamy błąd średniokwadratowy
E(m− m)2 = (Em−m)2 + Varm = m2[(
n∑i=1
ai − 1)2 +
n∑i=1
a2i
i].
Najlepsze ai wyznaczamy z warunku na pochodne
(
n∑i=1
ai − 1) =aii, ß = 1, 2, ..., n.
Stąd równieżn(n+ 1)
2(
n∑i=1
ai − 1) = (
n∑i=1
ai),
co dalej oznaczan∑i=1
ai =n(n+ 1)
n2 + n− 2,
n∑i=1
ai − 1 =2
n2 + n− 2.
Otrzymujemy
ai =2i
n2 + n− 2, i = 1, 2, ..., n.
2. (Eg 49/8) Niech X1, X2, ..., Xn, n > 2 będą niezależnymi zmiennymi losowymi o tym samymrozkładzie normalnym o wartości oczekiwanej 1 i nieznanej wariancji σ2. Rozważamy rodzinę es-tymatorów parametru σ postaci Sa = a
∑ni=1 |Xi−1|, przy czym a jest liczbą dodatnią. Wyznaczyć
a∗, tak aby estymator Sa∗ był estymatorem o najmniejszym błędzie średniokwadratowym wśródestymatorów postaci Sa.Odp: D-> a∗ =
√2π
2n+π−2 .
Rozwiązanie. Niech X ma rozkład N (1, σ2). Należy wyznaczyć błąd średniokwadratowy esty-matorów Sa, to znaczy
f(a) = E(Sa−σ)2 = E(a
n∑i=1
(|Xi−1|−E|Xi−1|)+anE|X−1|−σ)2 = a2nVar|X−1|+(anE|X−1|−σ)2.
Oczywiście E|X − 1| =√
2√πσ oraz
Var|X − 1| = E(X − 1)2 − (E|X − 1|)2 = σ2 − 2
πσ2.
1
Zatem
f(a) = a2n(1− 2
π)σ2 + (an
√2√π− 1)2σ2.
Znajdujemy punkt minimum tej funkcji, czyli a∗ z równania f ′(a) = 0 czyli
f ′(a) = 2an(1− 2
π)σ2 + 2(an
√2√π− 1)n
√2√πσ2 = 0
co jest równoważne
(1 + (n− 1)2
π)a =
√2√π.
Zatem a =√
2π2n−2+π .
3. (Eg 50/4) Rozpatrzmy następujący model regresji liniowej bez wyrazu wolnego:
Yi = β · xi + εi, (i = 1, 2, ..., 16),
gdzie xi > 0 są znanymi liczbami, β jest nieznanym parametrem, zaś εi są błędami losowymi.Zakładamy, że εi są niezależnymi zmiennymi losowymi o rozkładach normalnych i
E[εi] = 0 i Var[εi] = x2i , (i = 1, 2, ..., 16).
Niech β będzie estymatorem parametru β o następujących własnościach:
• β jest liniową funkcją obserwacji, tzn. jest postaci β =∑16i=1 ciYi
• β jest nieobciążony,
• β ma najmniejszą wariancję spośród estymatorów liniowych i nieobciążonych.
Wyznaczyć stałą c taką, że spełniony jest warunek
P(|β − β| < c) = 0, 95.
Odp: A-> c = 0, 49.
Rozwiązanie. Zmienne Yi są niezależne o rozkładach N (β · xi, x2i ). Z postaci gęstości (albo po
prostu ze wzoru na postać dla rozkładów wykładniczych) obliczamy statystyki dostateczne i zu-pełne
∑ni=1
Yixi,∑ni=1
Y 2i
x2i. Nietrudno zauważyć, że n−1
∑ni=1
Yixi
jest nieobciążonym estymatoremβ opartym na statystyce zupełnej i dostatecznej. Na mocy twierdzenia Rao-Blackwell’a spełnia onwszystkie postulaty wymienione w zadaniu. Obliczamy dla n = 16
P(|16∑i=1
(Yixi− β)| < 16c) = P(|
n∑i=1
εixi| < 16c).
Oczywiście∑ni=1
εixi
ma rozkład taki sam jak 4Z, gdzie Z ∼ N (0, 1). Stąd
P(|n∑i=1
εixi| < 16c) = P(|Z| < 4c)
Obliczamy z tablic 4c = 1, 96, czyli c = 0, 49.
2
4. (Eg 51/9) Niech X1, X2, ...Xn, n > 1 będzie próbką z rozkładu Poissona z nieznanym parametremλ (parametr jest wartością oczekiwaną pojedynczej obserwacji, λ = EλXi > 0. Interesuje nasdrugi moment obserwacji, czyli wielkość m2(λ) = Eλ(X2
i ). Estymator nieobciążony o minimalnejwariancji funkcji m2(λ) jest równyOdp: E-> 1
n2 ((∑ni=1Xi)
2 + (n− 1)∑ni=1Xi).
Rozwiązanie. Ponownie poszukujemy statystyki dostatecznej i zupełnej. którą jest w tym przy-padku T =
∑ni=1Xi. Estymator ENMW dla m2(λ) jest funkcją T . Możemy go albo zwyczajnie
zgadnąć (w przypadku tego zadania zauważając, że będzie to funkcja kwadratowa) albo obliczającze wzoru E(X2
i |T ). Zachodzi
m2(λ) = λ2 + λ, ET = nλ, ET 2 = (nλ)2 + nλ.
Z tych danych znajdujemy, że właściwy estymator ma postać
m2(λ) =T 2
n2+ (n− 1)
T
n2.
5. (Eg 52/4) Zakładamy, że zależność czynnika Y od czynnika x (nielosowego) opisuje model regresjiliniowej Yi = β0+β1xi+εi. Obserwujemy 2n elementową próbkę, w której x1 = x2 = ... = xn = −1i xn+1 = xn+2 = ... = x2n = 1. Zmienne losowe Y1, Y2, ..., Y2n są niezależne i błędy mają rozkładynormalne o wartości oczekiwanej 0, przy czym Varεi = σ2, gdy i = 1, 2, ..., n i Varεi = 9σ2,gdy i = n + 1, ..., 2n. Wyznaczono estymatory β0 i β1 parametrów β0 i β1 wykorzystując ważonąmetodę najmniejszych kwadratów, to znaczy minimalizując sumę
∑2ni=1
(Yi−β0−β1xi)2
Varεi. Wyznacz
stałą z1 tak abyP(|β1 − β1|
√n < z1σ) = 0, 95.
Spośród podanych odpowiedzi wybierz odpowiedź będącą najlepszym przybliżeniem.Odp: E-> z1 = 3, 099.
Rozwiązanie. Wyznaczamy β0 i β1 ∑2ni=1
Yi−β0−β1xiVarεi
= 0∑2ni=1
xi(Yi−β0−β1xi)Varεi
= 0
Zatem
β0 =1
2n(
2n∑i=1
Yi), β1 =1
2n(−
n∑i=1
Yi +
2n∑i=n+1
Yi).
Znajdujemy rozkład (β1 − β1)/√n jako
√10σ2 Z, gdzie Z ma rozkład normalny N (0, 1). Stąd
P(|β1 − β1|√n < z1σ) = P(|Z| < 2z1√
10).
Czyli 2z1√10
= 1, 96 ' 3, 099.
6. (Eg 53/8) W pewnej populacji prawdopodobieństwo tego, że osobnik przeżyje pierwszy rok jestrówne (1 − θ2). Jeżeli osobnik przeżył pierwszy rok, to prawdopodobieństwo warunkowe tego,że przeżyje następny rok jest równe 2θ
1+θ . W próbce losowej liczącej n osobników z tej populacjizanotowano:
• n0 przypadków, kiedy osobnik nie przeżył pierwszego roku• n1 przypadków, kiedy osobnik przeżył pierwszy rok, ale nie przeżył drugiego roku,• n2 przypadków, kiedy osobnik przeżył dwa lata.
3
Błąd średniokwadratowy estymatora największej wiarogodności parametru θ wyraża się wzorem:Odp: C-> θ(1−θ)
2n .
Rozwiązanie. Obliczamy rozkłady. Dla i = 1, ..., 10, zmiennaXi−X ma rozkładN ( (µ1−µ2)3 , 41
45σ2)
oraz N (− 2(µ1−µ2)3 , 122
45 ). Nadto X1 ma rozkład N (µ1,σ2
10 ), a X2 rozkład N (µ2,3σ2
5 ) stąd też X1−X2 ma rozkład N (µ1 − µ2,
710σ
2). Zatem
Eσ2 = 10a(1
9(µ1 − µ2)2 +
44
45σ2) + 5a(
4
9(µ1 − µ2)2 +
122
45σ2)+
+ b((µ1 − µ2)+ 9
10σ2).
Co oznacza, że b = − 103 a, nadto
703 a−
710b = 1, czyli a = 3
63 = 121 .
7. (Eg 54/5) Przeprowadzamy wśród wylosowanych osób ankietę na delikatny temat. Ankietowanaosoba rzuca kostką do gry, i w zależności od wyniku rzutu kostką (wyniku tego nie zna ankieter)podaje odpowiednio zakodowaną odpowiedź na pytanie:
’Czy zdarzyło się Panu/Pani w roku 2009 dać łapówką w klasycznej formiepieniężnej przekraczającą 100 zł’
• X = 1 jeśli odpowiedź brzmi ’TAK’,
• X = 0 jeśli odpowiedź brzmi ’NIE’,
Pierwszych 200 osób udziela odpowiedzi Z1, ..., Z200 zgodnie z regułą:
• jeśli wyniku rzutu kostką to liczba oczek równa 1, 2, 3 lub 4, to:
Zi = Xi
• jeśli wynik rzutu kostką to liczba oczek równa 5 lub 6, to:
Zi = 1−Xi
Następnych 200 osób udziela odpowiedzi Z201, ..., Z400 zgodnie z regułą:
• jeśli wyniku rzutu kostką to liczba oczek równa 1 lub 2, to:
Zi = Xi
• jeśli wynik rzutu kostką to liczba oczek równa 3, 4, 5 lub 6, to:
Zi = 1−Xi
Dla uproszczenia zakładamy, że 400 ankietowanych osób to próba prosta z (hipotetycznej) popu-lacji o nieskończonej liczebności, a podział na podpróby jest całkowicie losowy. Interesujący nasparametr tej populacji to oczywiście q = P(X = 1). Niech
Z1 =1
200
200∑i=1
Zi, Z2 =1
200
400∑i=201
Zi.
Estymator parametru q uzyskany metodą największej wiarygodności jest równyOdp: D-> 1
2 + 32 Z1 − 3
2 Z2.
4
Rozwiązanie. Oczywiście główne zadanie to ustalić rozkład Zi dla i = 1, 2, ..., 400. Zachodzi
P(Zi = 1) = 2q3 + (1−q)
3
P(Zi = 0) = 2(1−q)3 + q
3
, dla i = 1, 2, ..., 200
orazP(Zi = 1) = q
3 + 2(1−q)3
P(Zi = 0) = (1−q)3 + 2q
3
, dla i = 201, 202, ..., 400.
Możemy obliczyć wiarygodność
L(q, k) =
((1 + q)
3
)200(1+k1−k2)(2− q
3
)200(1−k1+k2)
,
dla k1 = 1200
∑200i=1 ki, k2 = 1
200
∑400i=201 ki. Obliczamy pochodną funkcji f(q) = logL(q, k)
f ′(q) = 200(1 + k1 − k2) · 1
1 + q− 200(1− k1 + k2) · 1
2− q.
Z warunku f ′(q) = 0 odczytujemy q = 12 + 3k1
2 −3k22 stąd ENW parametru q ma postać 1
2 + 32 Z1−
32 Z2.
8. (Eg 55/10) Niech X oznacza zmienną losową równą liczbie sukcesów w n (n > 2) niezależnychpróbach Bernoulliego. Prawdopodobieństwo sukcesu θ, (θ ∈ (0, 1)) jest nieznane. Rozważamyestymator parametru θ postaci θ = aX + b, o wartościach nieujemnych, którego błąd średniokwa-dratowy jest stały niezależny od wartości parametru θ. Błąd średniokwadratowy tego estymatorajest równyOdp: D-> 1
4(√n+1)2
.
Rozwiązanie. Obliczamy
E(θ − aX − b)2 = Var(aX) + ((an− 1)θ + b)2 = na2θ(1− θ) + (an− 1)2θ2 + 2(an− 1)bθ + b2.
Zatem na2 = (1− an)2, na2 = −2(an− 1)b, czyli −√na = an− 1, a = 1
n+√n, b = 1
2(√n+1)
. Stąd
E(θ − aX − b)2 =1
4(√n+ 1)2
.
9. (Eg 56/1) Zakładamy, że X1, X2, ..., X10, X11, X12..., X15 są niezależnymi zmiennymi losowymi orozkładach normalnych, przy czym EXi = µ1 i VarXi = σ2 dla i = 1, 2, ..., 10, oraz EXi = µ2
i VarXi = 3σ2 dla i = 11, 12, ..., 15. Parametry µ1, µ2 i σ są nieznane. Niech X1 = 110
∑10i=1Xi,
X2 = 15
∑15i=11Xi, X = 1
15
∑15i=1Xi. Dobrać stałe a i b tak, aby statystyka
σ2 = a
15∑i=1
(Xi − X)2 + b(X1 − X2)2
była estymatorem nieobciążonym parametru σ2.Odp: A-> a = 1
21 , b = − 1063 .
Rozwiązanie. Estymator nieobciążony oznacza, że niezależnie od µ1 i µ2
Eσ2 = σ2.
5
Zauważmy, że Xi = σXi+µi, i ∈ 1, 2, ..., 15. Nadto Yi = Zi dla i ∈ 1, 2, ..., 10 oraz Yi =√
3Zi,i ∈ 11, ..., 15, gdzie Zi są niezależne o rozkładzie N (0, 1). Stąd
15∑i=1
(Xi − X)2 =
15∑i=1
(σYi − σY + µi −2
3µ1 −
1
3µ2)2
co daje
E
15∑i=1
(Xi − X)2 =
15∑i=1
E(Yi − Y )2 + 10(1
3(µ1 − µ2))2 + 5(
2
3(µ1 − µ2))2
a stąd
E
15∑i=1
(Xi − X)2 = 10((14
15)2 +
24
(15)2) + 5((
14
15)2 +
12
(15)2) +
10
3(µ1 − µ2)2.
Z drugiej stronyX1 − X2 = σ(Z1 −
√3Z2)− µ1 + µ2,
czyli
E(X1 − X2)2 = σ2E(Z1 −√
3Z2)2 + (µ1 − µ2)2 =7
10σ2 + (µ1 − µ2)2.
Aby estymator σ2 był nieobciążony dostajemy równania703 a+ 7
10b = 1103 a+ b = 0
Dostajemy a = 121 , b = − 10
63 .
10. (Eg 57/10) Zakładamy, że zależność czynnika Y od czynnika x (nielosowego) opisuje model regresjiliniowej Yi = β0 + β1xi + εi, gdzie błędy εi są niezależne i mają rozkłady normalne o wartościoczekiwanej 0 i wariancji 1. Obserwujemy zmienne losowe Y1, Y2, ..., Yn przy danych wartościachx1, x2, ..., xn. Test najmocniejszy dla weryfikacji hipotezy
H0 : β0 = 0 i β1 = 1
przy alternatywieH1 : β0 = −1 i β1 = 2
na poziomie istotności 0, 05 odrzuca hipotezę H0, gdy spełniona jest nierównośćOdp: A->
∑ni=1(Yi−xi)(xi−1)√∑n
i=1(1−xi)2> 1, 645.
Rozwiązanie.Korzystamy z testu Neymana-Pearsona. Iloraz funkcji wiarygodności
L((−1, 2, y))
L((0, 1, y)= exp(
n∑i=1
yi(xi − 1)− 1
2(1− 2xi)
2 +1
2x2i ).
Zatem obszar krytyczny ma postać
K = y ∈ Rn :
n∑i=1
yi(xi − 1) > C
dla C takiego, że
P0,1(Y ∈ K) = P0,1(
n∑i=1
Yi(xi − 1) > C) = 0, 05.
6
Łatwo zauważyć, że∑ni=1(xi−1)Yi ma rozkładN (
∑ni=1 xi(xi−1),
∑ni=1(1−xi)2). Stąd ostatecznie∑n
i=1(Yi−xi)(xi−1)√∑ni=1(1−xi)2
ma rozkład zmiennej Z o rozkładzie N (0, 1). Zatem obszar krytyczny możemy
zapisać jako
P0,1(
n∑i=1
Yi(xi − 1) > C) = P0,1(
∑ni=1(Yi − xi)(xi − 1)√∑n
i=1(1− xi)2> C) = P(Z > C) = 0, 05.
Stąd C ' 1, 645.
11. (Eg 58/9) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi takimi, że EX = im iVarXi = im2 dla i = 1, 2, ..., n, gdzie m > 0 jest nieznanym parametrem. W klasie estymatorówparametru m postaci m =
∑ni=1 ciXi (gdzie ci są liczbami rzeczywistymi) najmniejszy błąd śred-
niokwadratowy ma estymator, dla którego ci są równeOdp: C-> c1 = c2 = ... = cn = 2
n(n+1)+2 .
Rozwiązanie. Błąd średniokwadratowy ma postać
f(c) = E(m− m)2 = (1−n∑i=1
ici)2m2 +
n∑i=1
ic2im2.
Minimalizacja polega na policzeniu pochodnych względem ci.
∂f
∂ci= −2i(1−
n∑i=1
ici)m2 + 2im2ci.
Czyli
ci = (1−n∑i=1
ici).
Stąd c1 = c2 = ... = cn = c. Nadto c = 1− (n+1)n2 c, czyli c = 2
n(n+1)+2 .
12. (Eg 59/7) Pobieramy próbkę niezależnych realizacji zmiennych losowych o rozkładzie Poissonaz wartością oczekiwaną λ > 0. Niestety sposób obserwacji uniemożliwia odnotowanie realizacjio wartości 0. Pobieranie próbki kończymy w momencie, gdy liczebność odnotowanych realizacjiwynosi n. Tak więc, każda z naszych kolejnych odnotowanych realizacji K1,K2, ...,Kn wynosico najmniej 1 i nic nie wiemy o tym, ile w międzyczasie pojawiło się obserwacji o wartości 0.Estymujemy parametr λ za pomocą estymatora postaci
λ =1
n
∞∑i=2
iNi,
gdzie Ni jest liczbą obserwacji o wartości i. Błąd średniokwadratowy estymatora λ jest równyOdp: E-> λ2−λ+λeλ
n(eλ−1).
Rozwiązanie. Przy założeniach zadania przyjmujemy, że Ki mają rozkład
P(Ki = k) =λk
k!(eλ − 1), k = 1, 2, 3, ...
Nadto zauważmy, że1
n
∞∑i=2
iNi =1
n(
n∑i=1
Ki −N1).
7
Dalej
E1
n
n∑i=1
Ki =λeλ
eλ − 1, E
1
nN1 =
λ
eλ − 1.
co oznacza, że
E1
n(
n∑i=1
Ki −N1) = λ.
czyli estymator λ jest nieobciążony. Zauważmy, że N1 =∑ni=1 1Ki=1 mamy
E1
n
n∑i=1
(Ki −EKi)1
n
n∑j=1
(1Kj=1 −E1Kj=1) =1
n2E
n∑i=1
(Ki −EKi)(1Ki=1 −E1Xi=1) =
=1
n(EK11K1=1 −EK1P(K1 = 1)) =
1
nP(K1 = 1)(1−EK1) =
1
n
λ
eλ − 1(1− λeλ
eλ − 1).
Obliczamy
E(λ− λ)2 = Var1
n
n∑i=1
Ki + Var1
n
n∑i=1
1Ki=1 − 2Cov(1
n
n∑i=1
Ki −EKi,1
n
n∑i=1
1K1=1 −E1K1=1) =
=1
nVarK1 +
1
nVar1K1
− 2
nP(K1 = 1)(1−EK1) =
1
n[(λ+ λ2)eλ
eλ − 1− λ2e2λ
(eλ − 1)2]+
+1
n
λ
eλ − 1(1− λ
eλ − 1)− 2
n
λ
eλ − 1(1− λeλ
eλ − 1) =
=λ
n(eλ − 1)(λ− 1 + eλ).
13. (Eg 60/3) Rozważamy model regresji liniowej postaci Yi = bxi + εi, i = 1, 2, ..., 5, gdzie b jestnieznanym parametrem rzeczywistym, x1 = x2 = 1, x3 =
√5, x4 = x5 = 3, a εi są niezależnymi
zmiennymi losowymi o tym samym rozkładzie normalnym o wartości oczekiwanej 0 i nieznanejwariancji σ2 > 0. Hipotezę H0 : b = 0 przy alternatywie H1 : b 6= 0 weryfikujemy testem o obszarzekrytycznym postaci | bσ | > c, gdzie b i σ są estymatorami największej wiarogodności parametrówb i σ, a stała c dobrana jest tak, aby test miał rozmiar 0, 05. Stała c równaOdp: E-> 0, 62.
Rozwiązanie. Należy wyznaczyć ENW b i σ2. Tradycyjnie obliczając pochodne sprawdzamy, że
b =
∑ni=1 xiYi∑ni=1 x
2i
, σ2 =1
n
n∑i=1
(Yi − xi
∑nj=1 xjYj∑nj=1 x
2j
)2.
Stąd dla b = 0 dostajemy
b =
∑ni=1 xiεi∑ni=1 x
2i
, σ2 =1
n
n∑i=1
(εi − xi
∑nj=1 xjεj∑nj=1 x
2j
)2.
Czyli dla b = 0 zachodzi b = 〈x,ε〉‖x‖2 , σ
2 = 1n
∑ni=1(εi − xi〈x,ε〉
‖x‖22). Łatwo zauważyć, że b ma postać
σ‖x‖Z, gdzie Z ma rozkład N (0, 1). Dalej z faktu braku korelacji wynika, że (εi − xi〈x,ε〉
‖x‖22) jest
niezależne od 〈x,ε〉‖x‖2 dla każdego i = 1, 2, ..., n. Stąd niezależne są zmienne 〈x,ε〉‖x‖2 oraz
n∑i=1
(εi −xi〈x, ε〉‖x‖22
)2 = ‖ε‖22 −〈x, ε〉2
‖x‖2= Y.
8
Pozostaje zauważyć, że zmienna Y ma rozkład χ2(n − 1). Wynika z ogólnej reguły, że jeśli ‖ε‖22ma rozkład χ2(n) oraz można rozłożyć ‖ε‖22 na niezależne zmienne = ‖ε‖22 −
〈x,ε〉2‖x‖2 i 〈x,ε〉
2
‖x‖2 , gdziedruga zmienna ma rozkład Z2, Z ' N (0, 1), to pierwsza musi mieć rozkład χ2(n− 1). Stąd
Pb=0(| bσ| > c) = Pb=0(|
√n− 1Z√Y
| > c‖x‖√n− 1√n
) = 0, 05.
Zmienna√n−1Z√Y
ma rozkład t-Studenta z parametrem n − 1. Podstawiając n = 5 oraz ‖x‖ = 5
dostajemy, że 2√
5c jest kwantylem symetrycznym wartości 0, 05 dla rozkładu t-Studenta z 4stopniami swobody. Kwantyl ten wynosi 2, 776, stąd c ' 0, 62.
14. (Eg 61/3) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu normalnego onieznanej wartości oczekiwanej µ i nieznanej wariancji σ2. Niech T oznacza estymator nieobciążonyo minimalnej wariancji parametru µ2. Wtedy błąd średniokwadratowy tego estymatora, czyli
Eµ,σ(T − µ2)2
jest równaOdp: E-> 2σ2
n(n−1) + 4µ2σ2
n .
Rozwiązanie. Przypomnijmy regułę budowania estymatorów ENMW. Najpierw znajdujemy sta-tystyki dostateczne i zupełne w tym przypadku
µ =1
n
n∑i=1
Xi, σ2 =1
n− 1
n∑i=1
(Xi − X)2.
Obliczamy
Eµ2 = µ2 +σ2
n, Eσ2 = σ2.
To oznacza, że ENMW jest postaci µ2 − 1n σ
2, gdyż jest nieobciążonym estymatorem µ2 będącymfunkcją statystyk dostatecznych i zupełnych. Obliczamy jego wariancję pamiętając, że µ i σ2 sąniezależne oraz z faktu, że µ ma rozkład N (µ, σ
2
n ) a σ2 ma rozkład σ2χ2(n− 1)
Var(µ2 − 1
nσ2) = Var(µ2) +
1
n2Var(σ2) =
=4µ2σ2
n+
2(n− 1)σ2
n2.
15. (Eg 63/2) Niech X1, X2, X3, X4 będą niezależnymi zmiennymi losowymi, przy czym zmienna lo-sowa Xi ma rozkład o wartości oczekiwanej m i wariancji im2, i = 1, 2, 3, 4, gdzie m 6= 0 jestnieznanym parametrem. Niech m oznacza estymator parametru m minimalizujący błąd średnio-kwadratowy w klasie estymatorów postaci
a1X1 + a2X2 + a3X3 + a4X4,
gdzie współczynniki ai ∈ R, i = 1, 2, 3, 4. Wtedy E(m−m)2 jest równeOdp: E-> 12
37m2.
Rozwiązanie. Mamy do wyznaczenia minE(∑4i=1 aiXi−m)2, po ai ∈ R. Prowadzi to do równań
na zerowanie się kolejnych pochodnych cząstkowych
EXi(
4∑i=1
aiXi −m) = 0, i = 1, 2, 3, 4.
9
Korzystając z faktu, że EXi = m przekształcamy równania
E(Xi −m)(
4∑i=1
ai(Xi −m)) = m2(1−4∑i=1
ai), i = 1, 2, 3, 4.
Z niezależności wynika zatem, że
aiVarXi = m2(1−4∑i=1
ai), i = 1, 2, 3, 4.
Ponieważ VarXi = im2 zatem ai jest postaci c/i. Stałą c wyznaczamy z równania
c = 1− c(1 +1
2+
1
3+
1
4), c =
12
37.
Stąd ai = 49i , i = 1, 2, 3, 4. Obliczamy
E(m−m)2 = E(
4∑i=1
ai(Xi −m) +12m
37)2 =
=
4∑i=1
a2iVarXi +
(12)3m2
(37)2=
(12)3m2
(37)2((1 +
1
2+
1
3+
1
4) + 1) =
=12
37m2.
10