Rachunek prawdopodobieństwa – MAEW 104

34
Rachunek prawdopodobieństwa – MAEW 104 Materialy do wykladu przygotowane przez L. Janicką, M. Rutkowską, W. Wawrzyniak-Kosz Literatura [1] J.Jakubowski, R.Sztencel, Wstep do teorii prawdopodobieństwa, SCRIPT, Warszawa 2001 [2] J.Jakubowski, R.Sztencel, Rachunek prawdopodobieństwa dla (prawie) kaŜdego, SCRIPT,Warszawa 2002 [3] T.Inglot, T.Ledwina, T.Lawniczak, Materialy do ćwiczen z rachunku prawdopodobieństwa i statystyki matematycznej, Wydawnictwo Politechniki Wroclawskiej, Wroclaw 1979 [4] H.Jasiulewicz, W.Kordecki, Rachunek prawdopodobieństwa i statystyka matematyczna. Przyklady i zadania, GiS.Wroclaw 2002 [5] W.Kordecki, Rachunek prawdopodobieństwa i statystyka matematyczna. Definicje, twierdzenia, wzory , GiS, Wroclaw 2002 [6] W.Krysicki, J.Bartos,W.Dyczka, K.Królikowska,M.Wasilewski, Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część I, PWN Warszawa, 1997 1.1. Wstęp – częstościowa interpretacja prawdopodobieństwa W otaczającej nas przyrodzie spotykamy się nie tylko ze zdarzeniami zdeterminowanymi, ale teŜ ze zdarzeniami, których wyniku nie potrafimy z góry przewidzieć, jednak potrafimy określić zbiór moŜliwych wyników. Teoria prawdopodobieństwa zajmuje się opisem zdarzeń pojawiających się przy wykonywaniu doświadczeń losowych, które moŜna powtarzać w tych samych warunkach. Zaczniemy od opisu pewnego doświadczenia wykonanego przez Rutherforda i Geigera. Obserwowali oni emisję cząstek radioaktywnej substancji w przedzialach czasu o dlugości 7,5 sek. Dokonano n = 2608 doświadczeń. Zaobserwowane wyniki przedstawia tabela, gdzie x oznacza liczbę cząstek wyemitowanych w przedziale czasu o dlugości 7,5 s, n(x) oznacza liczbę obserwacji w których wystąpil wynik x, w(x) jest częstością pojawienia się wyniku x , n x n x w ) ( ) ( = . x n(x) w(x) 0 53 0,022 1 203 0,078 2 383 0,147 3 525 0,201 4 532 0,204 5 408 0,156 6 273 0,105 7 139 0,053 8 45 0,017 9 27 0,010 10 16 0,006 Wartości funkcji w(x) dla innej serii pomiarów mogą być inne.

Transcript of Rachunek prawdopodobieństwa – MAEW 104

Page 1: Rachunek prawdopodobieństwa – MAEW 104

Rachunek prawdopodobieństwa – MAEW 104 Materiały do wykładu przygotowane przez

L. Janicką, M. Rutkowską, W. Wawrzyniak-Kosz Literatura [1] J.Jakubowski, R.Sztencel, Wstep do teorii prawdopodobieństwa, SCRIPT, Warszawa 2001 [2] J.Jakubowski, R.Sztencel, Rachunek prawdopodobieństwa dla (prawie) kaŜdego, SCRIPT,Warszawa 2002 [3] T.Inglot, T.Ledwina, T.Ławniczak, Materiały do ćwiczen z rachunku prawdopodobieństwa i statystyki matematycznej, Wydawnictwo Politechniki Wrocławskiej, Wrocław 1979 [4] H.Jasiulewicz, W.Kordecki, Rachunek prawdopodobieństwa i statystyka matematyczna. Przykłady i zadania, GiS.Wrocław 2002 [5] W.Kordecki, Rachunek prawdopodobieństwa i statystyka matematyczna. Definicje, twierdzenia, wzory , GiS, Wrocław 2002 [6] W.Krysicki, J.Bartos,W.Dyczka, K.Królikowska,M.Wasilewski, Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część I, PWN Warszawa, 1997 1.1. Wstęp – częstościowa interpretacja prawdopodobieństwa W otaczającej nas przyrodzie spotykamy się nie tylko ze zdarzeniami zdeterminowanymi, ale teŜ ze zdarzeniami, których wyniku nie potrafimy z góry przewidzieć, jednak potrafimy określić zbiór moŜliwych wyników. Teoria prawdopodobieństwa zajmuje się opisem zdarzeń pojawiających się przy wykonywaniu doświadczeń losowych, które moŜna powtarzać w tych samych warunkach. Zaczniemy od opisu pewnego doświadczenia wykonanego przez Rutherforda i Geigera. Obserwowali oni emisję cząstek radioaktywnej substancji w przedziałach czasu o długości 7,5 sek. Dokonano n = 2608 doświadczeń. Zaobserwowane wyniki przedstawia tabela, gdzie x oznacza liczbę cząstek wyemitowanych w przedziale czasu o długości 7,5 s, n(x) oznacza liczbę obserwacji w których wystąpił wynik x, w(x) jest częstością pojawienia się wyniku x ,

n

xnxw

)()( = .

x n(x) w(x)

0 53 0,022 1 203 0,078 2 383 0,147 3 525 0,201 4 532 0,204 5 408 0,156 6 273 0,105 7 139 0,053 8 45 0,017 9 27 0,010 ≥ 10 16 0,006

Wartości funkcji w(x) dla innej serii pomiarów mogą być inne.

Page 2: Rachunek prawdopodobieństwa – MAEW 104

ZauwaŜono, Ŝe dla długich serii pomiarów wartości funkcji w(x) stabilizują się wokół

wartości funkcji !

)(x

exp

xλλ−

= , gdzie λ jest pewną stałą (w podanym przykładzie

877871,3=λ ). Wartości funkcji p(x) nie zaleŜą od n.

x n(x) w(x) p(x) 0 53 0,022 0,021 1 203 0,078 0,081 2 383 0,147 0,156 3 525 0,201 0,201 4 532 0,204 0,195 5 408 0,156 0,151 6 273 0,105 0,097 7 139 0,053 0,054 8 45 0,017 0,026 9 27 0,010 0,011 ≥ 10 16 0,006 0,007

0

0,05

0,1

0,15

0,2

0,25

0 1 2 3 4 5 6 7 8 9 10

liczba emitowanych cząstek

w(x

), p

(x)

w(x)

p(x)

Inne przykłady doświadczeń losowych to rzut kostką, rzut monetą, obserwacja czasu niezawodnej pracy pewnego urządzenia,.. 1.2. Definicja i własności prawdopodobieństwa. Zbiór wszystkich moŜliwych wyników doświadczenia losowego nazywamy przestrzenią zdarzeń elementarnych i oznaczamy przez Ω . Przykłady przestrzeni zdarzeń elementarnych.

1. W doświadczeniu Rutherforda i Geigera obserwowano liczbę cząstek wyemitowanych przez ciało radioaktywne - ,....2,1,0=Ω .

2. Wykonujemy rzut kostką - obserwujemy liczbę oczek na kostce - 6,5,4,3,2,1=Ω 3. Obserwujemy czas t niezawodnej pracy urządzenia - ),0[: ∞∈=Ω tt . 4. Wyznaczamy czas ściągania pliku i liczbę przerw w jego ściąganiu -

,....2,1,0),,0[:),( ∈∞∈=Ω ktkt . 5. Rzucamy symetryczną monetą aŜ do pojawienia się orła - ,....,, RROROO=Ω .

Page 3: Rachunek prawdopodobieństwa – MAEW 104

1 Elementy rachunku prawdopodobieństwa

• Definicja 1.1. Prawdopodobienstwem nazywamy funkcję określoną na rodzinie zdarzeń Fspełniającą następujące warunki:

1. 0 ¬ P (A) ¬ 1 dla każdego A ∈F,

2. P (Ω) = 1,

3. Jeżeli zbiory Ai są parami rozłączne (tzn. Ai 6= Aj dla i 6= j), to

P

( ∞⋃

n=1

)

=∞∑

n=1

P (An)

. W szczególności P (A ∪B) = P (A) + P (B) dla zdarzeń rozłącznych A,B.

Z powyższych warunków (aksjomatów) wynika wiele własności prawdopodobieństwa,z których najważniejsze są przedstawione poniżej.

• Fakt 1.2. 1. Jeżeli A ⊂ B, to P (A) ¬ P (B),

2. P (A′) = 1− P (A), stąd P (∅) = 0,

3. Jeżeli A ⊂ B, to P (b \ A) = P (B)− P (A) = P (B)− P (A ∩B),

4. P (A ∪B) = P (A) + P (B)− P (A ∩B),

5. P (⋃nn=1) ¬

n∑

i=1P (Ai)

6. Jeżeli A1 ⊂ A2 ⊂ A3 ⊂ . . ., to P (⋃∞n=1) = limn→∞P (An),

7. Jeżeli . . . A3 ⊂ A2 ⊂ A1 ⊂ . . ., to P (⋂∞n=1) = limn→∞P (An).

W przypadku trzech zbiorów A,B,C wzór z punktu 4. przyjmuje postać

P (A∪B ∪C)=P (A)+P (B)+P (C)−P (A∩B)−P (B∩C)−P (A∩C)+P (A∩B ∩C), (1)a w przypadku dowolnej, skończonej liczby zbiorów wzór ten można uogólnić w następu-jący sposób:

P

(

n⋃

i=1

)

=∑

1¬i¬nP (Ai)−

1¬i1¬i2¬nP (Ai1 ∩ Ai2) + . . .+ (−1)n+1P (A1 ∩ A2 ∩ . . . ∩ An).

• Fakt 1.3. Jeżeli Ω = ωi : i ∈ I jest zbiorem skończonym lub I = N oraz P (ωi = pi,przy czym pi ­ 0 oraz

∞∑

i=1pi = 1, to wzór P (A) =

i:ωi∈Api określa prawdopodobieństwo

na rodzinie wszystkich podzbiorów zbioru Ω.

Trójkę (Ω,F,P ) nazywamy przestrzenią probabilistyczną.

• Przykład 1.1.1

Page 4: Rachunek prawdopodobieństwa – MAEW 104

Niech A,B,C będą zdarzeniami. Zapisać za pomocą działań na zbiorach następujące zda-rzenia:a) zachodzi dokładnie jedno ze zdarzeń A,B,C;b) zachodzą dokładnie dwa spośród zdarzeń A,B,C;c) zachodzą przynajmniej dwa spośród zdarzeń A,B,C.d) zachodzą co najwyżej dwa spośród zdarzeń A,B,C.

• Przykład 1.2.Studenci Wydziału Elektroniki muszą zaliczyć dwa lektoraty: z języka angielskiego i z ję-zyka niemieckiego. Z danych Dziekanatu wynika, że 2

3studentów zalicza lektorat z języka

angielskiego, oba lektoraty zalicza co czwarty student, zaś przynajmniej jeden z lekto-ratów zalicza również 2

3studentów. Jakie jest prawdopodobieństwo, że losowo wybrany

student:a) nie zaliczył żadnego lektoratu?b) zaliczył język angielski i nie zaliczył języka niemieckiego?

• Przykład 1.3.Studenci Wydziału PPT zdają w sesji zimowej I roku egzaminy z przedmiotów A,B,C.Wiadomo, z danych poprzednich lat, że przedmiot A zalicza 60% studentów, przedmiot Bzalicza 80% studentów i przedmiot C zalicza 70% studentów. Studenci, którzy zaliczyli Ai B stanowią 55% ogółu, ci którzy zaliczyli A i C stanowią 45% ogółu a studenci, którzyzaliczyli B i C stanowią 60% ogółu. Sesję zimową zalicza ok. 40% studentów. Obliczyćprawdopodobieństwo, że losowo wybrany student:a) zaliczył przynajmniej jeden egzamin,b) zaliczył przynajmniej dwa egzaminy.

1.1 Przykłady przestrzeni probabilistycznych.

1.1.1 Prawdopodobieństwo klasyczne

Przestrzeń Ω = ω1, ω2, . . . , ωn jest zbiorem n zdarzeń elementarnych, z których każdezachodzi z tym samym prawdopodobieństwem, czyli P (ωk) = 1

ndla k = 1, 2, . . . , n.

Zgodnie z Faktem 1.4. wzór

P (A) =A

n, (2)

gdzie A oznacza liczbę elementów zbioru A, określa prawdopodobieństwo na wszystkich

zdarzeniach A ⊂ Ω. Jest to tzw. prawdopodobieństwo klasyczne.W rozwiązywaniu zagadnień, w których przestrzeń zdarzeń elementarnych jest skończonaprzydadzą się nam wiadomości z kombinatoryki.

Podstawowe schematy kombinatoryczne

Niech A oznacza dowolny zbiór n różnych elementów A = a1, a2, . . . , an.

2

Page 5: Rachunek prawdopodobieństwa – MAEW 104

• Wariacje z powtórzeniami.

k-wyrazową wariacją z powtórzeniami zbioru A nazywamy każdy k-wyrazowy ciągelementów tego zbioru Liczba V kn wszystkich wariacji k-wyrazowych z powtórzeniami zezbioru n-elementowego wynosi

Vk

n = nk. (3)

• Wariacje bez powtórzeń.

k-wyrazową wariacją bez powtórzeń zbioru A (k ¬ n)nazywamy każdy k-wyrazowyciąg różnych elementów tego zbioru Liczba V kn wszystkich k-wyrazowych wariacji bezpowtórzeń ze zbioru n-elementowego wynosi

V kn = n(n− 1)(n− 2) · · · · · (n− k + 1) (4)

Jeżeli k = n, to k-wyrazową wariację bez powtórzeń ze zbioru A nazywamy n-wyrazowąpermutacją. Zatem liczba Pn wszystkich permutacji zbioru n-elementowego wynosi

Pn = n!. (5)

• Kombinacje.

k-elementową kombinacją bez powtórzeń z n-elementowego zbioru A nazywamykażdy k-elementowy podzbiór zbioru A. Liczba Ckn wszystkich kombinacji k-elementowychbez powtórzeń ze zbioru n-elementowego wynosi

Ckn =

(

n

k

)

. (6)

• Kombinacje z powtórzeniami.

k-elementową kombinacją z powtórzeniami z n-elementowego zbioru A nazy-wamy zbiór składający się z k elementów, różnych lub nie różniących się między sobą,wybranych spośród n elementów, przy czym nie jest istotna kolejność, w jakiej elementy

tego zbioru są ustawione. Liczba Ck

n wszystkich k-elementowych kombinacji z powtórze-niami ze zbioru n-elementowego jest taka sama, jak liczba wszystkich różnych zbiorówk-elementowych, jakie można utworzyć ze zbioru (n+k-1) elementów. Kombinacje z po-wtórzeniami można interpretować, jako rozmieszczenie k nierozróżnialnych elementów w nszufladach, przy czym w każdej szufladzie może być dowolna, nie przekraczająca k, liczbaelementów.

Ck

n =

(

k + n− 1k

)

=

(

k + n− 1n− 1

)

. (7)

• Przykład 1.4.W teorii cząstek elementarnych bada się rozmieszczenie k cząstek w podzielonej na komór-ki przestrzeni fazowej, którą można matematycznie opisać np.jako podzbiór przestrzeniczterowymiarowej, gdzie współrzędnymi są położenie i pęd cząstki. Fizycy stwierdzili do-świadczalnie, że niektóre cząstki zachowują się, jak kule rozróżnialne, inne - jak kulenierozróżnialne i zaproponowali trzy następujące modele zachowania się cząstek :

a) statystyka Maxwella-Boltzmanna. Cząstki zachowują się, jak kule rozróżnialne, więcpytając o liczbę możliwych rozmieszczeń k cząstek w n komórkach mamy do czynienia z

3

Page 6: Rachunek prawdopodobieństwa – MAEW 104

wariacjami z powtórzeniami i każde spośród nk rozmieszczeń jest jednakowo prawdopo-dobne. Nie znaleziono jeszcze cząstek, które zachowywałyby się zgodnie z tym modelem.

b) statystyka Fermiego-Diraca. Cząstki zachowują się, jak kule nierozróżnialne, ale w każ-dej komórce może być co najwyżej jedna cząstka i wszystkie możliwe rozmieszczenia sąjednakowo prawdopodobne. Tak zachowują się np. elektrony, protony i neutrony.

c) statystyka Bosego-Einsteina. Cząstki zachowują się, jak kule nierozróżnialne, w każdejkomórce może być dowolna liczba cząstek i wszystkie możliwe rozmieszczenia są jednako-wo prawdopodobne. Tak zachowują się np. fotony.

Zadanie — w każdym z rozważanych wyżej modeli wyznaczyć prawdopodobieństwo, zjakim k (k ¬ n) cząstek można rozmieścić po jednej w k z góry zadanych komórkach.

• Przykład 1.5.W pudle są kule białe i czarne. Razem jest ich n. Ile powinno być kul czarnych, aby praw-dopodobieństwo wylosowania (bez zwracania) dwu kul różnych kolorów było takie samo,jak prawdopodobieństwo wylosowania dwu kul tego samego koloru?

• Przykład 1.6.W szufladzie są dwie skarpety na prawą nogę i jedna na lewą nogę. Prawdopodobieństwo,że losowo wybierając dwie skarpety otrzymamy parę równe jest 2

(32)= 23, zaś prawdopodo-

bieństwo wyciągnięcia dwu prawych wynosi (22)(32)= 13. Do szuflady dołożono jedną skarpetę.

Jaka to jest skarpeta, skoro teraz prawdopodobieństwo, że wylosowane dwie skarpety sta-nowią parę, wynosi 1

2?

• Przykład 1.7.Przypuśćmy, że do jeziora zawierającego nieznaną liczbę N ryb wpuszczono dodatkowo1000 ryb oznakowanych (np. pomalowanych na czerwono). Po pewnym czasie dokonanopołowu 1000 ryb i znaleziono wśród nich 100 ryb z czerwonymi plamami. Jak na podsta-wie tych danych ocenić liczbę ryb w jeziorze?

1.1.2 Przeliczalna nieskończona przestrzeń probabilistyczna

Niech Ω = ω1, ω2, . . . . Jeżeli P (ωi) = pi przy czym pi ­ 0 oraz∞∑

i=1pi = 1, to prawdopo-

dobieństwo zdarzenia A ⊂ Ω określone jest wzoremP (A) =

i:ωi∈Api. (8)

• Przykład 1.8.Dwaj gracze, A oraz B, rzucają na przemian monetą, dopóki dwa razy pod rząd upadnieona na tę samą stronę. Jeżeli drugi pod rząd orzeł albo druga pod rząd reszka pojawi sięw rzucie nieparzystym, to wygrywa gracz A. W przeciwnym przypadku wygrywa graczB. Obliczyć prawdopodobieństwo wygranej dla każdego z graczy.

4

Page 7: Rachunek prawdopodobieństwa – MAEW 104

1.1.3 Prawdopodobieństwo geometryczne

W wielu zagadnieniach zbiór Ω można przedstawić jako podzbiór borelowski przestrzeniIR (IR2 lub IR3), który ma skończoną miarę m - długość (pole, objętość). Dla zdarzenialosowego A ⊂ Ω, dla którego tę miarę potrafimy obliczyć, prawdopodobieństwo zdarzeniaA zdefiniowane wzorem

P (A) =m(A)

m(Ω), (9)

nazywamy prawdopodobieństwem geometrycznym.

• Przykład 1.9.Kawałek drutu o długości 20cm zgięto pod kątem prostym w przypadkowo wybranympunkcie. Następnie zgięto drut jeszcze w dwu punktach tak, by powstała ramka prosto-kątna o obwodzie 20cm.a) Jakie jest prawdopodobieństwo, że pole ograniczone ramką nie przekroczy 21cm2?b) Jakie jest prawdopodobieństwo, że pole ograniczone ramką jest równe 21cm2?

• Przykład 1.10.W każdej chwili odcinka czasu T jednakowo możliwe jest nadejście do odbiornika każde-go z dwu sygnałów, które w tym odcinku czasu zostaną przesłane. Odbiornik nie możeprzyjąć drugiego sygnału, jeżeli nadejdzie on w czasie krótszym niż τ od chwili nadejściapierwszego sygnału. Obliczyć prawdopodobieństwo przyjęcia przez odbiornik obu sygna-łów.

• Przykład 1.11.Z przedziału [0, 1] wybieramy losowo trzy liczby x, y, z. Jakie jest prawdopodobieństwo,że ich suma jest liczbą z przedziału [1

2, 1]?

2 Prawdopodobieństwo warunkowe.

Niezależność zdarzeń.

2.1 Prawdopodobieństwo warunkowe.

Niech (Ω,F , P ) będzie przestrzenią probabilistyczną, a B - dowolnie ustalonym zdarze-niem takim, że P (B) > 0.

• Definicja 2.1. Prawdopodobienstwem warunkowym zdarzenia A pod warunkiem B nazy-wamy liczbę

P (A|B) = P (A ∩B)P (B)

.

Stąd oczywiście P (A ∩B) = P (A|B)P (B).Posługując się zasadą indukcji matematycznej możemy udowodnić, że dla dowolnego n,przy założeniu, że P (A1 ∩ · · · ∩ An−1) > 0, prawdziwa jest równośćP (A1 ∩ · · · ∩ An) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) · . . . · P (An|A1 ∩ · · · ∩ An−1). (10)

5

Page 8: Rachunek prawdopodobieństwa – MAEW 104

• Fakt 2.2. Jeżeli P (B) > 0, to funkcja P (·|B) określona na F spełnia aksjomaty praw-dopodobieństwa.

• Przykład 2.1.Rzucamy dwa razy symetryczną kostką.

a) Jakie jest prawdopodobieństwo wyrzucenia różnej liczby oczek?

b) Jakie jest prawdopodobieństwo wyrzucenia różnej liczby oczek, jeżeli suma oczek wy-nosi 11?c) Jakie jest prawdopodobieństwo wyrzucenia różnej liczby oczek, jeżeli suma oczek wy-nosi 10?

• Przykład 2.2.Wybrano losowo dwie liczby z przedziału [0, 1]. Jakie jest prawdopodobieństwo, że xy ­0, 09 , jeżeli wiadomo, że x+ y ¬ 1 ?

• Przykład 2.3.Studenci Wydziału Elektroniki muszą zdać w I semestrze trzy egzaminy: z fizyki (A),analizy matematycznej (C) i z algebry (B). Z danych Dziekanatu wynika, że 70% stu-dentów zalicza I semestr a 90% - zdaje egzamin z fizyki. Jeżeli student zaliczy algebrę ifizykę, to prawdopodobieństwo, że zda analizę wynosi 4

5. Jakie jest prawdopodobieństwo,

że student, który zdał fizykę, zda algebrę?R o z w i ą z a n i e.

Skorzystamy ze wzoru

P (A ∩B ∩ C) = P (A) · P (B|A) · P (C|A ∩B).

Mamy 710= 910· P (B|A) · 4

5, skąd P (B|A) = 18

25.

2.2 Wzór na prawdopodobieństwo całkowite i wzór Bayesa.

Załóżmy,że Ω jest sumą rozłącznych zbiorów Bi ∈F dla i ∈ I. Wówczas dla dowolnegozdarzenia A zbiory A ∩ Bi są parami rozłączne. Ponadto A=

i ∈ I

(A ∩Bi), więc P (A)=∑

i∈P (A∩Bi). Jeżeli wszystkie zdarzenia Bi mają dodatnie prawdopodobieństwo, to P (A∩Bi)=P (A|Bi) · P (Bi) dla każdego i∈I i otrzymujemy następujące twierdzenie.

• Twierdzenie 2.1. (Twierdzenie o prawdopodobieństwie całkowitym)Jeżeli Ω jest sumą rozłącznych zbiorów Bi, przy czym P (Bi) > 0 dla wszystkich i∈I, todla dowolnego zdarzenia A zachodzi równość

P (A) =∑

i∈ I

P (A|Bi) · P (Bi).

Czasem zdarzenia Bi występujące we wzorze na prawdopodobieństwo całkowite nazywa-my przyczynami, zdarzenie A - skutkiem. Rozważmy zagadnienie w pewnym sensie

6

Page 9: Rachunek prawdopodobieństwa – MAEW 104

odwrotne do zagadnienia obliczania prawdopodobieństwa całkowitego. Mianowicie zapy-tajmy, jakie jest prawdopodobieństwo przyczyny Bi, gdy znany jest skutek A. PonieważP (Bi ∩ A)=P (A|Bi) · P (Bi), więc otrzymujemy tzw. wzór Bayesa

P (Bi|A) =P (A|Bi)P (Bi)

i∈ IP (A|Bi) · P (Bi)

. (11)

Wzór Bayesa nazywamy wzorem na prawdopodobieństwo przyczyny.

• Przykład 2.4.Na stole leży 5 długopisów. Każde przypuszczenie (hipoteza) dotyczące liczby zepsutychdługopisów jest jednakowo prawdopodobne. Wybrany losowo długopis okazał się zepsuty.Które przypuszczenie dotyczące liczby zepsutych długopisów jest najbardziej prawdopo-dobne?

• Przykład 2.5.Telegraficzne przesyłanie informacji polega na wysyłaniu sygnałów: 0 albo 1. Przy przesy-łaniu 0 przekłamanie występuje w dwu przypadkach na trzydzieści, a przy przesyłaniu 1przekłamanie występuje w dwu przypadkach na czterdzieści. Stosunek liczby wysyłanych0 do liczby wysyłanych 1 wynosi 5 : 3. Obliczyć prawdopodobieństwo, że:

a) wysłano 0, jeżeli wiadomo, że odebrano 0,b) wysłano 1, jeżeli wiadomo, że odebrano 1,c) wysłano 1, jeżeli wiadomo, że odebrano 0.

• Przykład 2.6.Przeciętnie 3% wyprodukowanych elementów ma wadę. Do wykrywania wady stosuje siętest, który z prawdopodobieństwem 0, 9 wskazuje wadę (wynik testu pozytywny), jeżelielement ma wadę i z prawdopodobieństwem 0, 95 nie wskazuje wady, jeżeli element jej niema.a) Jakie jest prawdopodobieństwo, że element ma wadę, jeżeli wynik testu jest pozytyw-ny?b) Jakie jest powyższe prawdopodobieństwo, jeżeli element poddamy testowi dwukrotniei za każdym razem otrzymamy pozytywny wynik testu?

• Przykład 2.7.Prawdopodobieństwo, że pogoda w danej miejscowości jest taka sama, jak dnia poprzed-niego równe jest a dla dnia deszczowego i b — dla dnia bezdeszczowego (a, b ∈ (0, 1)).Prawdopodobieństwo, że pierwszy dzień roku jest deszczowy równe jest p1. Obliczyć praw-dopodobieństwo pn, że n-ty dzień roku jest deszczowy.

2.3 Niezależność zdarzeń.

• Definicja 2.3. Dwa zdarzenia A i B nazywamy niezaleznymi, jeżeli

P (A ∩B) = P (A) · P (B).

7

Page 10: Rachunek prawdopodobieństwa – MAEW 104

Jeżeli P (B) > 0, to z niezależności zdarzeń A i B wynika, że P (A|B) = P (A), czyli, jaksię potocznie mówi, zajście zdarzenia B nie ma wpływu na prawdopodobieństwo zajściazdarzenia A. Oczywiście dla dowolnego A ∈F zdarzenia A i Ω są niezależne. Podobnie- zdarzenia A i ∅ są niezależne. Jeżeli zdarzenia A i B są rozłączne i mają niezeroweprawdopodobieństwa, to nie mogą być niezależne.

Zdarzenia A1, A2, A3, . . . nazywamy rodziną zdarzeń niezależnych, jeżeli dla każdejskończonej ilości zdarzeń Ai1 , Ai2 , . . . , Ain zachodzi równość

P (Ai1 ∩ · · · ∩ Ain) = P (Ai1) · · ·P (Ain). (12)

• Fakt 2.4. Jeżeli zdarzenia A1, A2, . . . , An są niezależne, to niezależne są także zdarzeniaB1, B2, . . . , Bn, gdzie Bi = Ai lub Bi = A

i dla i = 1, 2, . . . , n.

• Fakt 2.5. Jeżeli zdarzenia A1, A2, . . . , An są niezależne, to czyliP

( n⋃

i=1

Ai

)

= 1−n∏

i=1

(1− P (Ai)). (13)

D o w ó d.

Ponieważn⋃

i=1Ai = Ω \

n⋂

i=1A′i, więc korzystając z własności prawdopodobieństwa i z

niezależności zdarzeń Ai, i = 1, 2, . . . , n możemy napisać

P

(

n⋃

i=1Ai

)

= 1− P (n⋂

i=1A′i) = 1−

n∏

i=1P (A′i) = 1−

n∏

i=1(1− P (Ai)).

czyli P(

n⋃

i=1Ai

)

= 1−n∏

i=1(1− P (Ai)).

W tym momencie warto sobie przypomnieć, jak się oblicza prawdopodobieństwo sumyzdarzeń, o których nie wiadomo, czy są parami rozłączne (1). Widać, że, gdy zdarzeniaAi są niezależne, ten dość skomplikowany wzór można mocno uprościć.

• Przykład 2.8.Trzech kontrolerów jakości pracuje niezależnie. Pierwszy wykrywa 90% wad, drugi - 80%a trzeci - 60%. Jaki procent wad wykrywają łącznie? Jaki procent wad wykrywa trzecikontroler a nie wykrywa pierwszy ani drugi?

• Przykład 2.9.Niezawodnością urządzenia nazywamy prawdopodobieństwo tego, że będzie ono praco-wać poprawnie przez czas nie mniejszy niż T. Obliczyć niezawodność urządzeń, którychschematy przedstawiają poniższe rysunki. Liczby p1, p2, . . . oznaczają niezawodności po-szczególnych, niezależnie pracujących elementów.

a) p1 p2 pn

b)

p1

p2

pn

8

Page 11: Rachunek prawdopodobieństwa – MAEW 104

c)

p1

p2

p3 p4

p5

p6

p7

.

• Przykład 2.10.Rozważamy rodziny posiadające n dzieci. Niech A oznacza zdarzenie, że rodzina ma dzie-ci obu płci, a B - rodzina ma przynajmniej jedną dziewczynkę. Czy zdarzenia A i B sąniezależne?

• Przykład 2.11.Wkładamy losowo n ponumerowanych kul do n ponumerowanych szuflad. Jakie jest praw-dopodobieństwo pn, że przynajmniej jedna kula trafi do szuflady o tym samym numerze?Obliczyć lim

n→∞ pn.

3 Zmienne losowe jednowymiarowe.

3.1 Definicja oraz rozkład i dystrybuanta zmiennej losowej.

Matematyczny opis doświadczenia losowego wymaga sprecyzowania przestrzeni probabili-stycznej, z którą mamy do czynienia. Wprowadzimy teraz pojęcia, które pozwolą uprościći stworzyć jednolity opis doświadczenia losowego. Zacznijmy od przykładu.

Badamy jakość czterech wyprodukowanych elementów. Każdy z nich może być dobry(oznaczmy to przez 1) lub wadliwy (oznaczmy to przez 0). Mamy wówczas

Ω = (ω1, ω2, ω3, ω4) : ωi ∈ 0, 1, i = 1, 2, 3, 4.

F jest zbiorem wszystkich podzbiorów zbioru Ω. Faktycznie, najczęściej interesuje nastylko liczba elementów dobrych wśród sprawdzanych, czyli wynikowi (ω1, ω2, ω3, ω4) przy-pisujemy liczbę (ω1+ω2+ω3+ω4). Określamy zatem na Ω funkcję X o wartościach w IRwzorem

X(ω1, ω2, ω3, ω4) = ω1 + ω2 + ω3 + ω4.

Wartościami funkcji X jest jedna z liczb ze zbioru 0, 1, 2, 3, 4.Zdarzenie (ω1, ω2, ω3, ω4) : X(ω1, ω2, ω3, ω4) = k oznaczamy krótko (X = k).

• Definicja 3.1. Zmienna losowa nazywamy każdą funkcję X : Ω −→ IR taką, że dladowolnego a ∈ IR zbiór (X < a) = ω ∈ Ω : X(ω) < a jest zdarzeniem losowym, czyliω ∈ Ω : X(ω) < a ∈F dla dowolnego a ∈ IR.

W dalszym ciągu zapisujemy krótko

ω ∈Ω : X(ω) < a = (X < a).

9

Page 12: Rachunek prawdopodobieństwa – MAEW 104

Z własności rodziny F wynika, że zdarzeniami losowymi są też wszystkie zbiory postaci:(X ¬ a), (X > a), (X ­ a), (a < X < b), (a < X ¬ b), (a ¬ X < b).

Ze zmienną losową wiąże się pojęcie jej dystrybuanty.

• Definicja 3.2. Dystrybuanta zmiennej losowej X: Ω→ IR nazywamy funkcjęFX: IR→ [0, 1] określoną wzorem:

FX(x) = P (X < x)

• Twierdzenie 3.1. Funkcja F : IR −→ IR jest dystrybuantą pewnej zmiennej losowej wtedyi tylko wtedy, gdy :

• F jest niemalejąca,

• limx→−∞

F (x) = 0, limx→+∞

F (x) = 1.

• F jest lewostronnie ciągła,

Z dwu pierwszych warunków wynika, że dla każdego x ∈ IR prawdziwa jest nierówność0 ¬ F (x) ¬ 1.

• Przykład 3.1.Czy można dobrać stałe a, b tak, by funkcja F (x) była dystrybuantą pewnej zmiennejlosowej?

F (x) =

aex gdy x ¬ −1,0, 5 gdy −1 < x ¬ 1,b(2− 1

x) gdy x > 1.

Jeżeli potrafimy dla każdego podzbioru borelowskiego B określić prawdopodobieństwo,z jakim X przyjmuje wartości w zbiorze B, to mówimy, że został określony rozkładprawdopodobieństwa zmiennej losowej X:

PX(B) = P (ω : X(ω) ∈ B).

W dalszym ciągu oznaczamy krótko

P (X ∈ B) = PX(B).

Zauważmy, że rozkład zmiennej losowej spełnia aksjomaty prawdopodobieństwa.

Rozkład zmiennej losowej jest jednoznacznie wyznaczony przez jej dystrybuantę, co jesttreścią następującego faktu.

• Fakt 3.3. Prawdziwe są następujące równości:1. P (X ­ a) = 1− FX(a),2. P (a ¬ X < b) = FX(b)− FX(a),3. P (X = a) = FX(a+)− FX(a)(stąd, jeżeli FX jest ciągła w punkcie a, to P (X = a) = 0),

4. P (X ¬ a) = FX(a+),5. Jeżeli X jest typu ciągłego, to P (X = a) = 0 dla każdego a ∈ IR.

10

Page 13: Rachunek prawdopodobieństwa – MAEW 104

Wyróżniamy dwa zasadnicze typy zmiennych losowych: zmienne losowe typu skokowego izmienne losowe typu ciągłego.

• Definicja 3.4. Mówimy, że zmienna losowa X jest typu skokowego lub X jest zmien-

na dyskretna, jeżeli X przyjmuje skończenie lub co najwyżej przeliczalnie wiele wartościxi, i ∈ I przy czym P (X = xi) = pi > 0 oraz

i ∈ I

pi = 1.

Rozkład prawdopodobieństwa zmiennej dyskretnej nazywa się często funkcją prawdo-podobieństwa i zapisuje w postaci

(xi, pi) : i ∈ I

Dystrybuanta FX : IR −→ [0, 1] zmiennej dyskretnej ma postać

FX(x) = P (X < x) =∑

i:xi<xpi.

Jest to funkcja schodkowa, lewostronnie ciągła o skokach o wartości pi w punktach xi, i ∈ I.

• Przykład 3.2.Zorganizowano następującą grę : gracz wyciąga z talii 52 kart dwie karty (bez zwracania).Jeżeli są to dwa asy - gracz otrzymuje 20 punktów; jeżeli dwie figury (król, dama, walet) -gracz otrzymuje 10 punktów; w każdym pozostałych przypadków gracz traci dwa punkty.Znaleźć rozkład zmiennej losowej X oznaczającej wygraną gracza. Wyznaczyć i narysowaćdystrybuantę X.

3.2 Najważniejsze rozkłady dyskretne

• Rozkład zerojedynkowy .

Mówimy, że zmienna losowa X ma rozkład zerojedynkowy z parametrem p (rozkładB(1, p)), jeżeli X przyjmuje tylko dwie wartości oznaczane przez 1 i 0 (nazywane od-powiednio sukcesem i porażką) oraz

P (X = 1) = p, P (X = 0) = q = 1− p gdzie p ∈ (0, 1).

Typowymi przykładami zmiennych o rozkładzie zerojedynkowym są zmienne losowe, któreopisują jakość wyrobu (dobry, wadliwy), pracę urządzeń dwustanowych czy wynik gry(wygrana, przegrana).

• Rozkład dwumianowy - rozkład Bernoulli’ego

Eksperyment ze zmienną losową o rozkładzie B(1, p) powtarzamy niezależnie n razy. NiechX oznacza liczbę sukcesów w n powtórzeniach. Wówczas

P (X = k) =

(

n

k

)

pkqn−k, dla k = 0, 1, . . . , n

11

Page 14: Rachunek prawdopodobieństwa – MAEW 104

Mówimy, że zmienna losowa zdefiniowana wyżej ma rozkład Bernoulli’ego z parametrami(n, p). Piszemy wówczas, że zmienna losowa ma rozkład B(n, p). Łatwo sprawdzić, wyko-rzystując wzór na dwumian Newtona, że nieujemne wartości P (X = k) sumują się do 1:n∑

k=0P (X = k) =

n∑

k=0

(

n

k

)

pkqn−k = (p+ q)n = 1.

Zauważmy, że jeżeli Xi (i = 1, 2, . . . , n) są niezależnymi zmiennymi losowymi, z którychkażda ma rozkład B(1, p), to zmienna losowa Y =X1+X2+. . .+Xn opisuje łączną liczbęsukcesów w tych n próbach, czyli ma właśnie rozkład Bernoulli’ego z parametrami n, p.

Wartość k0, którą zmienna losowa dyskretna przyjmuje z największym prawdopodobień-stwem, nazywamy najbardziej prawdopodobną wartością X. Jeżeli X ma rozkładB(n, p), to

k0 =

(n+ 1)p lub (n+ 1)p− 1 gdy (n+ 1)p ∈ IN

[(n+ 1)p] gdy (n+ 1)p ∈6 IN.

• Przykład 3.3.W pewnym biurze zainstalowano 10 drukarek. Każda z drukarek pracuje niezależnie śred-nio przez 12 minut w ciągu jednej godziny.a) Jakie jest prawdopodobieństwo, że w losowo wybranej chwili będzie włączonych 7 dru-karek? co najmniej 7 drukarek?b) Jaka jest najbardziej prawdopodobna liczba drukarek włączonych w danej chwili?

• Przykład 3.4.Prawdopodobieństwo prawidłowo wykonanej czynności przez pracownika wynosi 0.99.a) Jakie jest prawdopodobieństwo, że wszystkie spośród 100 takich samych, niezależniewykonywanych, czynności zostaną wykonane prawidłowo?b) Jaka jest najbardziej prawdopodobna liczba czynności wykonanych prawidłowo?Rozważyć powyższe pytania, gdy czynność będzię powtarzana 199 razy.

• Przykład 3.5.Co jest bardziej prawdopodobne: wygrać z równorzędnym przeciwnikiem nie mniej niż 3partie z 4 partii, czy nie mniej niż 5 partii z 8 partii?

• Rozkład Poissona z parametrem λ

Można udowodnić, że prawdziwe jest następujące twierdzenie.

• Twierdzenie 3.2. (Poissona)Jeżeli (Xn) jest ciągiem zmiennych losowych o rozkładzie dwumianowym B(n, pn), przyczym lim

n→+∞npn = λ, to dla każdego k ∈ IN zachodzi równość

limn→+∞

(

n

k

)

pkn(1− pn)n−k = e−λλk

k!.

12

Page 15: Rachunek prawdopodobieństwa – MAEW 104

Mówimy, że zmienna losowa X ma rozkład Poissona z parametrem λ, λ > 0, jeżeli

P (X = k) =λk

k!e−λ. dla k = 0, 1, 2, . . . .

Oczywiście łatwo sprawdzić, że P (X = k) ­ 0 oraz∞∑

k=0P (X = k) =

∞∑

k=0

λk

k!e−λ = e−λ

∞∑

k=0

λk

k!= e−λ · eλ = 1.

Przybliżanie rozkładu Bernoulli’ego rozkładem Poissona jest stosowane w przypadku, gdyn jest duże (n ­ 50) a p — małe tak, by np(1− p) ¬ 9.Najbardziej prawdopodobną wartością zmiennej lososwej o rozkładzie Poissona jest

k0 =

λ lub λ− 1 gdy λ ∈ IN

[λ] gdy λ ∈6 IN.

• Przykład 3.6.Po mieście jeździ 1000 samochodów. Prawdopodobieństwo, że samochód ulegnie uszko-dzeniu w ciągu jednej doby równe jest p = 0, 002. Jakie jest prawdopodobieństwo, że conajmniej jeden samochód w ciągu doby ulegnie uszkodzeniu? Zakładamy, że samochodypsują się niezależnie. Jaka jest najbardziej prawdopodobna liczba uszkodzonych samocho-dów? Ile miejsc należy przygotować na stacjach obsługi,by z prawdopodobieństwem 0, 95było wolne miejsce dla uszkodzonego samochodu?

• Przykład 3.7.Wiadomo, że 1% produkowanych żarówek to braki. Obliczyć dokładnie i w przybliżeniu,prawdopodobieństwo, że:a) wśród losowo wybranych 100 żarówek nie ma ani jednej wybrakowanej,b) wśród losowo wybranych 100 żarówek są 2 wybrakowane,c) jaka jest minimalna liczba żarówek, które należy sprawdzić, by prawdopodobieństwoznalezienia złej żarówki było nie mniejsze niż 0,9.

• Przykład 3.8.Śrubki są pakowane w pudełka po 100 sztuk. Prawdopodobieństwo, że śrubka jest wy-brakowana wynosi 0,01. Ile sztuk należałoby dodać do każdego pudełka, aby w celachmarketingowych można było powiedzieć, że z prawdopodobieństwem nie mniejszym niż0,9 w każdym pudełku jest co najmniej 100 sztuk dobrych?

• Przykład 3.9.Liczba komputerów, które mogą być zarażone wirusem przez pewną sieć ma rozkład Po-issona z parametrem λ. W każdym zarażonym komputerze wirus niezależnie uaktywniasię z prawdopodobieństwem p. Jakie jest prawdopodobieństwo, że wirus uaktywni się wm komputerach?

13

Page 16: Rachunek prawdopodobieństwa – MAEW 104

• Rozkład geometryczny z parametrem p.

Eksperyment ze zmienną losową o rozkładzie B(1, p) powtarzamy niezależnie dopóki po-jawi się sukces. Niech X oznacza numer próby, w której sukces pojawił się po raz pierwszy.Wówczas, kładąc q = 1− p otrzymujemy

P (X = k) = pqk−1, dla k = 1, 2 . . .

Mówimy, że zmienna losowa zdefiniowana wyżej ma rozkład geometryczny z parametremp. Prawdopodobieństwa zdarzeń (X = k) są wyrazami ciągu geometrycznego i sumują siędo 1:

∞∑

k=0P (X = k) =

∞∑

k=1pqk−1 = p

∞∑

k=1qk−1 = p · 1

1−q = 1.

Zmienną o rozkładzie geometrycznym wygodnie jest interpretować jako czas oczekiwaniana pierwszy sukces, tzn. liczbę powtórzeń eksperymentu poprzedzających eksperyment,w którym po raz pierwszy otrzymaliśmy sukces.

• Fakt 3.5. Jeżeli zmienna losowa X ma rozkład geometryczny, to dla dowolnych liczbnaturalnych n0, k zachodzi równość:

P (X > n0 + k|X > n0) = P (X > k).

O zmiennej losowej spełniającej warunek z Faktu 3.5 mówimy, że ma tzw. własnośćbraku pamięci. Ciekawszym jest fakt, że rozkład geometryczny jest jedynym rozkłademdyskretnym posiadającym własność braku pamięci.

• Przykład 3.10.Prawdopodobieństwo, że danego dnia w miejscowości A latem świeci słońce jest stałe irówne p. Jakie jest prawdopodobieństwo, że jeszcze co najmniej przez 7 dni będzie pięknasłoneczna pogoda, jeżeli już od dwu tygodni świeci słońce?

• Przykład 3.11.Główna wygrana w totolotku to prawidłowe skreślenie 6 liczb spśród 49. Jakie jest praw-dopodobieństwo głównej wygranej za 1001 razem, jeżeli przez 1000 razy nie było głównejwygranej?

• Rozkład Pascala z parametrami r,p.

Eksperyment ze zmienną losową o rozkładzie B(1, p) powtarzamy niezależnie dopóki po-jawi się r sukcesów. Niech X oznacza numer próby, w której r-ty sukces pojawił się poraz pierwszy. Wówczas dla r ­ 1, q = 1− p mamy

P (X = k) =

(

k − 1r − 1

)

prqk−r, dla k = r, r + 1, . . . , gdzie r ­ 1, 0 < p < 1.

Mówimy, że zmienna losowa zdefiniowana wyżej ma rozkład Pascala z parametrami r, p.Zmienną o rozkładzie Pascala wygodnie jest interpretować jako czas oczekiwania na pierw-szy r-ty sukces.

14

Page 17: Rachunek prawdopodobieństwa – MAEW 104

• Przykład 3.12.Na ulicy stoi sprzedawca gazet. Każdy z mijających go przechodniów kupuje gazetę zprawdopodobieństwem p = 1

3. Niech X oznacza ilość ludzi mijających go do momentu,

gdy sprzeda 100 gazet. Znaleźć rozkład zmiennej X.

Przybliżenie rozkładem Poissona możemy stosować również w przypadku, gdy zmiennalosowa ma rozkład hipergeometryczny, gdzie N +M jest duże a liczba N

N+M· n mieści się

w przedziale (0, 10).

• Przykład 3.13.Zauważmy, że w Przykładzie 1.7 liczba ryb oznaczonych wśród 1000 wyłowionych (jeżeliw jeziorze jest N + 1000 ryb) jest zmienną losową o rozkładzie hipergeometrycznym zparametrami N,M = 1000, n = 1000.

• Przykład 3.14.Spośród liczb 1, 2, . . . , 35 losujemy pięć liczb. Jakie jest prawdopodobienstwo, że będąwśród nich cztery mniejsze od 21? Jaka jest najbardziej prawdopodobna ilość liczb wylo-sowanych mniejszych od 21? Porównać wynik ze średnią z takich liczb.

• Przykład 3.15.Pudełko kulek potrzebnych do zmontowania łożyska zawiera 10 sztuk o dodatniej odchył-ce od nominalnego wymiaru średnicy i 15 sztuk - o ujemnej odchyłce. Do zmontowaniałożyska potrzeba 6 kulek, z których co najwyżej 3 mogą mieć dodatnią odchyłkę od nomi-nalnego wymiaru średnicy. Jakie jest prawdopodobieństwo, że monterowi, który wybiera6 kulek losowo, uda się zmontować łożysko?

• Rozkład wielomianowy

Rozkład dwumianowy możemy uogólnić na przypadek n powtarzanych niezależnych eks-perymentów, z których każdy może mieć jeden z k (k ­ 2) wyników. Niech pi oznaczaprawdopodobieństwo realizacji wyniku i-tego rodzaju w każdej próbie, pi ∈ (0, 1), i =1, 2, . . . , k, p1+ p2+ . . .+ pk = 1, zaś Xi niech oznacza liczbę wyników i-tego rodzaju wn powtórzeniach. Wówczas

P (X1 = n1, X2 = n2, . . . , Xk = nk) =n!

n1! · n2! · . . . · nk!pn11 · pn22 · . . . · pnkk ,

gdzie ni, i = 1, 2, . . . , k są liczbami naturalnymi oraz n1 + n2 + . . .+ nk = n.

• Przykład 3.16.Jakie jest prawdopodobieństwo, że w sześciocyfrowym kodzie wystąpią trzy zera, dwiepiątki i jedna ósemka?

• Przykład 3.17.Po wstępnej kontroli technicznej 70% wyrobów oceniono jako dobre, 5% - jako wadliwe,a 25% zdecydowano poddać dalszej kontroli. Jakie jest prawdopodobieństwo, że wśród 10wylosowanych wyrobów jest 7 dobrych, 2 – wadliwe i 1 należy poddać dalszej kontroli?

15

Page 18: Rachunek prawdopodobieństwa – MAEW 104

3.3 Zmienne losowe typu ciągłego

• Definicja 3.6. Mówimy, że zmienna losowa X jest typu ciagl66 6 6 6 ego, jeżeli istnieje nieujemnafunkcja całkowalna fX : IR −→ IR taka, że:

FX(x) =

x∫

−∞fX(t)dt dla każdego x ∈ IR.

Funkcję fX nazywamy gestoscia prawdopodobienstwa.

Wiemy z analizy, że funkcja FX jest wówczas ciągła. Ponadto - jest ona różniczkowalnawe wszystkich punktach ciągłości funkcji fX i w punktach tych zachodzi równożć

F′

X(x) = fX(x).

Nietrudno wykazać, że prawdziwa jest następująca charakteryzacja.

• Twierdzenie 3.3. Funkcja f jest gęstością pewnej zmiennej losowej wtedy i tylko wtedy,gdy :

• f(x) ­ 0 dla każdego x ∈ IR,

•+∞∫

−∞f(x)dx = 1.

• Przykład 3.18.Czy istnieje stała c, dla której podana funkcja jest funkcją gęstości:

f(x) =

0, gdy x ¬ 0,c, gdy 0 < x ¬ 1cx2, gdy x > 1

Wykorzystamy twierdzenie 3.3. Dla funkcji f(x) mamy c ­ 0 oraz∫ 0

−∞0dx+

∫ 1

0cdx+

∫ ∞

1

c

x2dx = 2c = 1

zatem dla c = 12funkcja f(x) jest gęstością pewnej zmiennej losowej Y . Jej dystrybuanta

ma postać

F (x) =

0, gdy x ¬ 0,12x, gdy 0 < x ¬ 1,

1− 12x, gdy x > 1.

Obliczmy, dla zmiennej losowej Y prawdopodobieństwo zdarzeń:

P (−2 < X < 1) = F (1)− F (−2) =∫ 1

0

1

2dx =

1

2,

P (0 < X < 4) = F (4)− F (0) =∫ 1

0

1

2dx+

∫ 4

1

1

2x2=7

8,

P (X > 2) = 1− F (2) =∫ ∞

2

1

2x2dx =

1

4.

16

Page 19: Rachunek prawdopodobieństwa – MAEW 104

• Przykład 3.19.Dzienne zużycie energii (100 kWh =1) pewnej firmy jest zmienną losową X o gęstości:

fX(x) =

19(3 + 2x− x2) dla 0 ¬ x ¬ 3,0 dla x < 0 lub x > 3.

Jakie jest prawdopodobieństwo zdarzeń: (X > 12), (1 < X < 2)?

3.4 Najważniejsze rozkłady ciągłe

• Rozkład jednostajny na odcinku [a,b]:

Zmienna losowa X ma rozkład jednostajny na odcinku [a, b], jeżeli jej gęstość jest postaci

fX(x) =

1b−a dla x ∈ [a, b],0 dla x ∈ IR \ [a, b]

Wówczas

FX(t) =

0 gdy t ¬ a,t−ab−a gdy t ∈ (a, b],1 gdy t > b.

x

y

O 2

12

Gęstość rozkładu jednostajnego

na przedziale [0,2]

x

y

O 2

12

Dystrybuanta rozkładu jednostajnego

na przedziale [0,2]

• Przykład 3.20.Z przystanku autobusy odjeżdżają co 10 minut. Zakładamy, że rozkład T czasu przybyciapasażera na przystanek jest zmienną losową o rozkładzie jednostajnym. Obliczyć praw-dopodobieństwo, że pasażer będzie czekał co najmniej 4 minuty, mniej niż 3 minuty.

• Przykład 3.21.Automat produkuje kulki metalowe o średnicy X będącej zmienną losową o gęstości

fX(x) =

5 dla x ∈ [0.4, 0.6],0 dla x ∈ IR \ [0.4, 0.6]

Za zgodne z normą uznaje się kulki o średnicy z przedziału [0.41, 0.59]. Obliczyć praw-dopodobieństwo, że wybrana losowo z produkcji kulka spełnia wymagania normy. Jakajest najbardziej prawdopodobna liczba kulek spełniających wymagania normy wśród 1000kulek.

17

Page 20: Rachunek prawdopodobieństwa – MAEW 104

• Rozkład wykładniczy z parametrem λ

Zmienna losowa X ma rozkład wykładniczy z parametrem λ, λ > 0, jeżeli jej gęstość mapostać

fX(x) =

0 dla x ¬ 0,λe−λx dla x > 0.

3

−2 −1 0 1 2

1

2

3 4

Gęstość rozkładu wykładniczego dla λ = 1

Wówczas dystrybuanta jest postaci

FX(x) = =

0 dla x ¬ 0,1− e−λx dla x > 0

Rozkład wykładniczy posiada ”własność braku pamięci” przez co rozumiemy, że dladowolnych nieujemnych x, s zachodzi równość:

P (X > x+ s|X > s) = P (X > x).

Można także wykazać, że rozkład wykładniczy jest jedynym rozkładem ciągłymposiadającym własność ”braku pamięci”.

• Przykład 3.22.Czas pracy pewnego urządzenia jest zmienną losową X o rozkładzie wykładniczym zparametrem α = 10−4. Wiadomo, że urządzenie pracowało 1000h. Jakie jest prawdopo-dobieństwo, że popracuje co najmniej 6000h?

• Rozkład normalny z parametrami m, σ.

Zmienna losowa X ma rozkład normalny z parametrami m σ (m, ∈ IR, σ > 0), jeżeli jejgęstość ma postać

fX(x) =1

σ√2πe−(x−m)2

2σ2 .

Wiemy już, że∞∫

−∞fX(x)dx = 1.

Rozkład ten oznaczać będziemy symbolem N(m,σ).

Rozkład normalny jest najważniejszym rozkładem w teorii prawdopodobieństwa. Zostałwprowadzony w XVIIIw. przez Gaussa i Laplace’a Rozkład normalny, co niedługo przed-stawimy, stanowi dobre przybliżenie sum niezależnych zmiennych losowych. Z tego wzglę-du jest wykorzystywany do opisu losowych błędów pomiarów. Jeżeli błąd pomiaru nie-

18

Page 21: Rachunek prawdopodobieństwa – MAEW 104

znanej wielkości jest sumą wielu małych losowych błędów dodatnich i ujemnych, to sumatych błędów ma rozkład bliski rozkładowi normalnemu.

Dystrybuanty rozkładu normalnego N(m,σ) , czyli funkcji

FX(x) =1

σ√2π

∫ x

−∞e−(t−m)2

2σ2 dt.

nie można wyrazić przez funkcje elementarne. Wartości dystrybuanty rozkładu N(0, 1),czyli funkcji

Φ(x) =1√2π

∫ x

−∞e−t2

2 dt.

podane są w tablicach.

Wykres gęstości rozkładu N(0, 1) jest następujący

Gęstość rozkładu N(0,1)

Z symetrii wykresu gęstości względem osi Oy otrzymujemy wygodną w obliczeniach rów-ność:

ΦX(−x) = 1− ΦX(x).

Okazuje się, że wartości dystrybuanty dowolnego rozkładu N(m,σ) można obliczyć,znając wartości funkcji Φ(x).

• Fakt 3.7. Jeżeli X ma rozkład N(m,σ), to zmienna losowa Y = X −mσ

ma rozkład

N(0, 1) oraz

FX(x) = Φ(

x−mσ

)

.

Ostatni Fakt daje następujący, często wykorzystywany wzór

P (a < X < b) = Φ

(

b−mσ

)

− Φ(

a−mσ

)

.

Korzystając ze standaryzacji i z tablic rozkładu N(0, 1) łatwo sprawdzić, że gdy X marozkład N(m,σ), to

P (m− 3σ < X < m+ 3σ) = P(

−3 < X−mσ< 3

)

= 2Φ(3)− 1 = 2 · 0.9987− 1 ­ 0.997.

19

Page 22: Rachunek prawdopodobieństwa – MAEW 104

Oznacza to, że wartości zmiennej X z prawdopodobieństwem bliskim 1 zawarte są wprzedziale (m− 3σ,m+ 3σ). Własność tę nazywamy ”prawem trzech sigm”.

• Przykład 3.23.Średnica metalowych kulek produkowanych przez automat jest zmienną losową X o roz-kładzie N(0.5, 0.04). Za zgodne z normą uznaje się kulki o średnicy z przedziału [0.41,0.59]. Obliczyć prawdopodobieństwo, że wybrana losowo z produkcji kulka spełnia wyma-gania normy. Jaka jest najbardziej prawdopodobna liczba kulek spełniajacych wymaganianormy wśród 1000 kulek?

• Przykład 3.24.Czas sprawnej pracy drukarek pewnego typu (w dniach) ma rozkład N(1000,80).Jakipowinien być okres gwarancji, aby na 90% drukarka działała przynajmniej przez okresgwarancji ?

• Rozkład gamma z parametrami a, b > 0)

Zmienna losowa X ma rozkład gamma z parametrami a, b > 0, jeżeli jej gęstość ma postać

γa,b(x) =

0 dla x ¬ 0,ba

Γ(a)xa−1e−bx dla x > 0.

gdzie Γ(a) (tzw. funkcja gamma) zdefiniowana jest dla a > 0 za pomocą całki niewła-ściwej

Γ(a) =

∞∫

0

ta−1e−tdt.

Całkowanie przez części daje wzór rekurencyjny

Γ(a) = (a− 1)Γ(a− 1) dla a > 1,

więc dla a = n ∈ IN otrzymujemy

Γ(n) = (n− 1)!

Dla naturalnych a = n rozkład gamma jest rozkładem sumy n niezależnych zmiennychlosowych o rozkładzie wykładniczym z parametrem b.

• Rozkład Cauchy’ego z parametrem λ

Zmienna losowa X ma rozkład Cauchy’ego z parametrem λ, λ > 0, jeżeli jej gęstość jestpostaci

fX(x) =λ

π(λ2 + x2).

Wówczas

FX(x) =1

π

(

arc tgx

λ+π

2

)

.

20

Page 23: Rachunek prawdopodobieństwa – MAEW 104

3.5 Funkcje zmiennych losowych

Jeżeli g jest w miarę porządną (np. posiadającą co najwyżej przeliczalnie wiele punktównieciągłości), funkcją zmiennej rzeczywistej, to dla dowolnej zmiennej losowej X : Ω −→ IRfunkcja g X = g(X) : Ω −→ IR też jest zmienną losową. Mamy bowiem:(g X)−1((−∞, a)) = X−1(g−1(−∞, a)) ∈ F .Dla zmiennej losowej X w pewnych przypadkach rozkład zmiennej losowej g(X), gdzie gjest funkcją zmiennej rzeczywistej można łatwo wyznaczyć. Jeżeli g jest ściśle rosnąca, todystrybuantę zmiennej Y = g X można wyznaczyć za pomocą dystrybuanty zmiennejX w następujący sposób:

FY (x) = P (Y < x) = P (g(X) < x) = P (X < g−1(x)) = FX(g

−1(x)).

• Przykład 3.25.Miesięczny koszt prowadzenia przyzakładowego laboratorium jest zależny od liczby x za-trudnionych w nim pracowników zgodnie ze wzorem y = 15000x + 10000

√x. Koszty

te traktujemy jako zmienną losową. Wyznaczyć funkcję prawdopodobieństwa zmiennejY = 15000X + 10000

√X, przyjmując następujący rozkład zmiennej losowej X:

xi 2 3 4 5pi 0, 1 0, 25 0, 40 0, 25

• Przykład 3.26.W ustalonym punkcie płaskiej folii znajduje się źródło promieniowania radioaktywnegowysyłające promienie równomiernie we wszystkich kierunkach. W odległości 1 od foliiznajduje się równoległy do niej ekran, na którym obserwuje się błyski spowodowane pro-mieniowaniem. Niech X będzie zmienną losową oznaczjącą współrzędną punktu obserwo-wanego na ekranie. Korzystając z założenia, że kąt φ(t) jest wartością zmiennej losowej Φo rozkładzie jednostajnym na (0, π) wyznaczyć gęstość i dystrybuantę zmiennej losowej X

• Definicja 3.8. Zmienne losowe X1, X2, . . . , Xn nazywają się niezależne, jeżeli dla do-wolnych t1, t2, . . . , tn ∈ IR zachodzi równość

P (X1 < t1, X2 < t2, . . . , Xn < tn) =n∏

i=1

P (Xi < ti)

• Przykład 3.27.Czas oczekiwania na połączenie w centrali telefonicznej dla każdego abonenta jest zmien-ną losową X o rozkładzie wykładniczym z parametrem λ = 0, 2s. Z centrali korzystajednocześnie i niezależnie 100 abonentów. Obliczyć prawdopodobieństwo, że najkrótszy zczasów oczekiwania jest większy niż 5s a najdłuższy - mniejszy niż 10s.

21

Page 24: Rachunek prawdopodobieństwa – MAEW 104

3.6 Parametry rozkładu zmiennej losowej

W praktyce istnieje potrzeba opisania zmiennej losowej przez podanie pewnych charakte-ryzujących ją liczb, zwanych parametrami rozkładu zmiennej losowej.

Omówimy teraz najczęściej wykorzystywane parametry rozkładu zmiennej losowej.

3.6.1 Wartość oczekiwana zmiennej losowej.

• Definicja 3.9. Wartoscia oczekiwana zmiennej losowej dyskretnej o rozkładzie(xi, pi) : i ∈ I nazywamy liczbę EX określoną wzorem:

EX =∑

i∈Ixipi,

przy założeniu, że suma∑

i∈I|xi|pi jest skończona.

Wartoscia oczekiwana zmiennej losowej ciagl66 6 6 6 ej o gęstości f(x) nazywamy liczbę EX okre-śloną wzorem:

EX =+∞∫

−∞xf(x)dx,

przy założeniu, że całka+∞∫

−∞|x|f(x)dx jest skończona.

Zauważmy, że wartość oczekiwana zmiennej losowej X jest odpowiednikiem znanego zfizyki pojęcia środka masy. W przypadku zmiennej dyskretnej prawdopodobieństwa piinterpretujemy jako masy skupione w punktach xi, a przyjęty układ jednostek jest taki,że masa całkowita równa jest 1. W przypadku zmiennej ciągłej f(x) jest gęstością masy.

Wprost z definicji (z własności szeregów i całek niewłaściwych zbieżnych) wynikają na-stępujące własności wartości oczekiwanej:

• Fakt 3.10. (Własności wartości oczekiwanej)1. E(aX + c) = aE(X) + c, dla a, c ∈ IR;

2. Jeżeli P (X = c) = 1, to EX = c. W szczególności E(EX) = EX ;

3. |EX| ¬ E(|X|);

4. Jeżeli P (X ­ 0) = 1 , to EX ­ 0;

5. Jeżeli Y = g(X), to EY =∑

i g(xi)pi w przypadku zmiennej dyskretnej oraz

EY =+∞∫

−∞g(x)f(x)dx w przypadku zmiennej z gęstością f(x), o ile powyższy szereg

i całka są zbieżne bezwzględnie;

6. E(X + Y ) = EX + EY ;

7. Jeżeli X,Y są niezależne, to E(XY ) = EX · EY .

22

Page 25: Rachunek prawdopodobieństwa – MAEW 104

3.6.2 Wariancja zmiennej losowej.

• Definicja 3.11. Wariancja zmiennej losowej nazywamy liczbę zdefiniowaną wzorem

VarX = E(X − EX)2

Pierwiastek z wariancji, czyli D(X) =√VarX nazywamy odchyleniem standardo-

wym albo dyspersją zmiennej losowej X, a wariancję oznaczamy często także sym-bolem D2(X). Wariancja pozwala ocenić, jak bardzo wartości zmiennej losowej różnią sięod wartości oczekiwanej. Zaliczamy ją do grupy tzw. parametrów rozproszenia. Inter-pretując rozkład prawdopodobieństwa jako rozkład masy jednostkowej (podobnie, jak wprzypadku wartości oczekiwanej) widzimy, że wariancja jest odpowiednikiem występują-cego w fizyce pojęcia momentu bezwładności względem środka masy.

• Fakt 3.12. Prawdziwa jest następująca równośćVarX = EX2 − (EX)2.

• Fakt 3.13. (Własności wariancji)1. VarX ­ 0,

2. VarX = 0 wtedy i tylko wtedy, gdy P (X = c) = 1 dla pewnej stałej c.

3. Var(aX) = a2VarX,

4. Var(X + c) = VarX,

5. Jeżeli zmienne losowe X,Y są niezależne, to Var(X + Y ) = VarX + VarY.

Oczywiste jest uogólnienie dwu ostatnich własności Faktu 3.10 i ostatniej własności Faktu3.13 na przypadek dowolnej skończonej ilości zmiennych losowych.

Tabela wartości oczekiwanych i wariancji

rozkład X EX VarXdwumianowy B(n, p) np np(1− p)Poissona z parametrem λ λ λ

geometryczny z parametrem p p−1 (1− p)p−2Pascala z parametrami r,p rp−1 r(1− p)p−2hipergeometryczny p = N(N +M)−1 np np(1− p)jednostajny na [a, b] 1

2(a+ b) 1

12(b− a)2

wykładniczy z parametrem λ λ−1 λ−2

normalny N(m,σ) m σ2

gamma z parametrami a, b ab−1 ab−2

• Przykład 3.28.

23

Page 26: Rachunek prawdopodobieństwa – MAEW 104

Obliczyć wartość oczekiwaną i wariancję dla zmiennych losowych o następujących rozkła-dach:a) P (X = 49) = P (X = 51) = 1

2;

b) P (Y = −100) = 14, P (Y = 100) = 3

4;

c) P (Z = 100) = P (Z = 0) = 14, P (Z = 50) = 1

2.

Znajomość wariancji poprawia charakteryzację zmiennej losowej. Jeżeli wartości zmiennejlosowej są odległe od wartości oczekiwanej, to wariancja jest duża. Mała wartość wariancjimówi, że wartości zmiennej losowej są bliskie jej wartości oczekiwanej. Zauważmy, żedla zmiennych losowych przyjmujących skończenie wiele wartości zawsze istnieje wartośćoczekiwana i wariancja.

• Przykład 3.29.Dla zmiennej losowej X, dla której EX = 2, VarX = 3, wykorzystując własności wartościoczekiwanej i wariancji, możemy obliczyć:

a) E(4X − 9) = 4EX − 9 = −1,b) Var(−2X + 7) = (−2)2VarX = 12c) D(2X − 1) =

Var(2X − 1) =√22VarX = 2

√3.

• Przykład 3.30.Zmienne losowe X,Y są niezależne, X ma rozkład N(−3, 2), Y ma rozkład N(4, 3). Wy-korzystując własności wartości oczekiwanej i wariancji, możemy obliczyć:

a) E(2X − 4Y + 1) = 2EX − 4EY + 1 = −21,b) Var(X − Y ) = VarX + (−1)2VarY = 5c) E(XY ) = EX · EY = −12.

• Przykład 3.31.Załóżmy, że niezależne zmienne losowe Xi mają rozkład B(1, p), i = 1, 2, . . . , n. Niech

Y =n∑

i=1Xi. Obliczyć EY oraz VarY . Dla jakiego p, VarY jest największa?

• Przykład 3.32.Pokazać, że jeżeli zmienna losowa X ma wariancję, to dla zmiennej losowej Y =

X − EX√VarX

zachodzą równości: EY = 0, VarY = 1.R o z w i ą z a n i e.Wykorzystując własności wartości oczekiwanej i wariancji zawarte w faktach 3.10, 3.13możemy policzyć

EY = 1√VarXE(X − EX) = 1√

VarX(EX − EX) = 0

oraz

VarY =(

1√VarX

)2Var(X − EX) =

(

1√VarX

)2 · VarX = 1.

Przekształcenie powyższe nazywamy standaryzacją zmiennej losowej.

24

Page 27: Rachunek prawdopodobieństwa – MAEW 104

3.6.3 Momenty.

Wartość oczekiwana i wariancja są szczególnymi przypadkami parametrów rozkładu zwa-nych momentami.

Momentem zwykłym rzędu k (k = 1, 2, . . .) zmiennej losowej X nazywamy liczbęEXk. Momentem absolutnym rzędu k (k = 1, 2, . . .) zmiennej losowej X nazywa-my liczbę E|X|k. Momentem centralnym rzędu k (k = 1, 2, . . .) zmiennej losowej Xnazywamy liczbę E(X − EX)k.

• Fakt 3.14. Jeżeli istnieje moment absolutny rzędu k, to istnieją momenty absolutny,zwykły i centralny rzędów l ¬ k.

Momenty centralne rzędu 3 i 4 wykorzystuje się do badania asymetrii rozkładu i stop-nia jego koncentracji wokół wartości oczekiwanej.

• Definicja 3.15. Wspol66 6 6 6 czynnikiem asymetrii (skosnosci) nazywamy liczbę α3 określonąwzorem

α3 =E(X − EX)3D(X)3

Współczynnik asymetrii dla rozkładu normalnego wynosi 0, a dla rozkładu wykładni-czego równy jest 2.

3.6.4 Kwantyle.

• Definicja 3.16. Kwantylem rzedu p, gdzie p ∈ (0, 1), rozkładu zmiennej losowej X na-zywamy każdą liczbę xp spełniającą warunek

FX(xp) ¬ p ¬ FX(x+p ).

Oznacza to, że P (X < xp) ¬ p i jednocześnie P (X > xp) ¬ 1 − p. Nie wszystkiekwantyle rozkładu zmiennej dyskretnej są jednoznacznie wyznaczone, a kwantyle rozkładuzmiennej typu ciągłego są jedynymi liczbami spełniającymi warunek FX(xp) = p.

Kwantyl rzędu 12nazywamy medianą i oznaczamy me. Dla zmiennej dyskretnej mamy

zatem∑

xi<me

pi  0, 5 ·

xi¬mepi,

a dla zmiennej typu ciągłego mediana spełnia równość

F (me) = 0, 5.

Kwantyl rzędu 14nazywamy kwartylem dolnym, a kwantyl rzędu 3

4– kwartylem gór-

nym. Mamy zatem

P (x 14< X ¬ x 3

4) ­ 1

2.

3.7 Nierówność Czebyszewa i twierdzenia graniczne

W tym rozdziale poznamy nierówności często wykorzystywane do szacowania prawdopo-dobieństw zdarzeń i zajmiemy się badaniem zbieżności ciągów sum zmiennych losowych.

25

Page 28: Rachunek prawdopodobieństwa – MAEW 104

3.8 Ważne nierówności.

Twierdzenie 1. (Nierówność Markowa) Jeżeli P (X ­ 0) = 1, oraz EX < ∞, todla dowolnego k > 0 zachodzi nierówność

P (X ­ k) ¬ 1kEX

lub równoważnie:

P (X < k) ­ 1− EXk.

D o w ó d.Dla zmiennej X typu ciągłego o gęstości f(x) mamy np.

EX =∫

(X­k)xf(x)dx+

(X<k)xf(x)dx ­ kP (X ­ k),

co daje żądaną nierówność. Analogiczny dowód można przeprowadzić dla zmiennej losowejdyskretnej.

• Przykład 3.33.Śrubki są pakowane w pudełka po 100 sztuk. Prawdopodobieństwo, że śrubka jest wy-brakowana wynosi 0,01. Ile sztuk należałoby dodać do każdego pudełka, aby w celachmarketingowych można było powiedzieć, że z prawdopodobieństwem nie mniejszym niż0,9 w każdym pudełku jest co najmniej 100 sztuk dobrych?

Parametrem, za pomocą którego można charakteryzować rozrzut wartości zmiennej loso-wej jest wariancja albo odchylenie standardowe.

Rola wariancji jako miary rozrzutu zawarta jest w następującym twierdzeniu.

Twierdzenie 2. (Nierówność Czebyszewa) Jeżeli V arX < ∞ , to dla dowolnegoε > 0 zachodzi nierówność:

P (|X − EX| ­ ε) ¬ VarXε2.

lub równoważnie

P (|X − EX| < ε) ­ 1− VarXε2

.

D o w ó d.Niech X będzie zmienną losową o skończonej wariancji. Wykorzystując nierówność Mar-kowa dla zmiennej Y = (X − EX)2, otrzymujemy:

P (|X − EX| ­ ε) = P (Y ­ ε2) ¬ 1ε2EY =

1

ε2E(X − EX)2 = VarX

ε2

• Przykład 3.34.

26

Page 29: Rachunek prawdopodobieństwa – MAEW 104

Zobaczmy, jakie oszacowanie daje nierówność Czebyszewa dla następujących zmiennychlosowych:

a) Zmienna losowa X ma rozkład normalny N(m,σ).Ponieważ EX = m i VarX = σ2, więc z nierówności Czebyszewa dla ε = 3σ mamy

P (|X −m| ­ 3σ) ¬ σ2

9σ2= 19,

podczas, gdy z prawa trzech sigm wynika, że prawdopodobieństwo tego zdarzenia jestmniejsze niż 0,003.

b) Dla zmiennej losowej o rozkładzie prawdopodobieństwa

P (X = −2) = P (X = 2) = 0, 125, P (X = 0) = 0, 75mamy

EX = −2 · 0, 125 + 2 · 0, 125 = 0 oraz VarX = 4 · 0, 125 + 4 · 0, 125 = 1Nierówność Czebyszewa z ε = 2 ma postać

P (|X − 0| ­ 2) ¬ 14,

a jednocześnie prawdopodobieństwo tego zdarzenia wynosi

P (|X| ­ 2) = P (X = −2 ∨ X = 2) = 14,

czyli dla tej zmiennej w nierówności Czebyszewa zachodzi ”równość”. Zatem oszacowania,jakie daje nierówność Czebyszewa, nie można ”polepszyć”.

• Przykład 3.35.W celu oszacowania nieznanej wadliwości p poddaje się kontroli kolejne elementy partiitowaru. Niech Xi = 0, jeżeli i-ty element jest dobry, Xi = 1 - jeżeli i-ty element jest

wadliwy, i = 1, 2, . . . , n oraz niech Zn = 1n

n∑

i=1Xi. Ile elementów należy skontrolować, by

P (|Zn − p| < 0.01) ­ 0, 9?

• Przykład 3.36.Wykonujemy 80 rzutów kostką. Znaleźć najkrótszy przedział, w jaki z prawdopodobień-stwem nie mniejszym niż 0,9 wpada ilość otrzymanych szóstek.

3.9 Prawa wielkich liczb.

Korzystając z nierówności Czebyszewa można udowodnić niektóre twierdzenia ważne dlazastosowań rachunku prawdopodobieństwa.

Niech X1, X2, . . . będą niezależnymi zmiennymi losowymi o wartościach oczekiwanych

mi i wariancjach σ2i . Rozważmy Yn =n∑

i=1Xi. Wówczas V arYn =

n∑

i=1σ2i i widać, że

rośnie ona wraz ze wzrostem n. Dlatego rozważa się Yn mnożone przez pewne liczbowewspółczynniki An , które ograniczają wariancję Yn . Najczęściej rozważa się An = 1

n.

Wtedy Yn jest średnią arytmetyczną zmiennych X1, X2, . . . , Xn.

Będziemy rozważać dwa typy twierdzeń granicznych:

27

Page 30: Rachunek prawdopodobieństwa – MAEW 104

• Prawa wielkich liczb to twierdzenia, w których graniczna zmienna losowa marozkład jednopunktowy

• Centralne twierdzenia graniczne to twierdzenia, w których graniczna zmiennalosowa ma rozkład normalny.

Niech X1, X2, . . . będzie ciągiem zmiennych losowych o skończonej wartości oczekiwanej.Mówimy, że dla ciągu (Xn) zachodzi:

• Słabe Prawo Wielkich Liczb, jeżeli

∀ ǫ > 0 limn→∞P

(

ω :

1

n

n∑

k=1

Xk −1

n

n∑

k=1

EXk

< ǫ

)

= 1

Ze Słabego Prawa Wielkich Liczb wynika, że z prawdopodobieństwem bliskim 1, wartośći

zmiennej losowej 1n

n∑

k=1Xk różnią się dowolnie mało od swojej wartości oczekiwanej

E( 1n

n∑

k=1Xk).

Kiedy zachodzi Słabe Prawo Wielkich Liczb?

Twierdzenie 3. Jeżeli Xn są niezależne i limn→∞

1n2V ar

(

n∑

k=1Xk

)

= 0,

to dla ciągu (Xn)zachodzi Słabe Prawo Wielkich Liczb.

D o w ó d. Korzystając z nierówności Czebyszewa możemy napisać:

P

(∣

1

n

n∑

k=1

Xk −1

n

n∑

k=1

EXk

­ ε)

= P

(∣

n∑

k=1

(Xk − EXk)∣

­ εn)

¬ 1

ε2n2V ar

n∑

k=1

Xk −→ 0

Zauważmy, że jeżeli zmienne losoweX1, X2, . . . , Xn są niezależne i mają jednakowy rozkład

o wartości oczekiwanej m i skończonej wariancji, to średnie 1n

n∑

k=1Xk z prawdopodobień-

stwem bliskim 1 przybliżają m.Twierdzenie to jest prawdziwe również przy słabszych założeniach.

• Przykład 3.37.W serii rzutów kostką niech

Xk =

1 gdy wypadnie 6,0 w przeciwnym razie.

Wówczas Xk ma rozkład B(1, 16). Z Prawa Wielkich Liczb wynika, że z prawdopodobień-

stwem bliskim 1, wartości zmiennej losowej 1n

n∑

k=1Xk różni się dowolnie mało od 16 .

• Przykład 3.38.Czy dla ciągu niezależnych zmiennych losowych o następujących rozkładach prawdopo-dobieństwa

P (Xn =√n) = P (Xn = −

√n) = 1

2√n, P (Xn = 0) = 1− 1√

n

28

Page 31: Rachunek prawdopodobieństwa – MAEW 104

zachodzi Słabe Prawo Wielkich Liczb?

∗Niech X1, X2, . . . będzie ciągiem zmiennych losowych o skończonej wartości oczeki-

wanej. Mówimy, że dla ciągu (Xn) zachodzi:

• Mocne Prawo Wielkich Liczb, jeżeli prawdziwa jest równość

P

(

limn→∞1

n

(

n∑

k=1

Xk − En∑

k=1

Xk

)

= 0

)

= 1

• Twierdzenie 3.4. (Twierdzenie Chinczyna)Dla zmiennych niezależnych o tym samym rozkładzie i skończonej wartości oczekiwanejm zachodzi

P

(

limn→∞X1 +X2 + . . .+Xn

n= m

)

= 1

Pokażemy zastosowanie Mocnego Prawa Wielkich Liczb do obliczania całek oznaczonych,gdy wyznaczenie funkcji pierwotnej jest trudne lub wręcz - niemożliwe w sposób anali-tyczny.(Metoda Monte Carlo obliczania całek oznaczonych)

Niech g(x) będzie funkcją całkowalną na przedziale [a, b] i oznaczmy przez I nieznaną

wartość całkib∫

ag(x)dx.Wiemy, że jeżeli X jest zmienną losową o rozkładzie jednostajnym

na przedziale [a, b], to

Eg(X) =

b∫

a

g(x)1

b− adx =1

b− a · I.

Jeżeli X1, X2, . . . są niezależnymi zmiennymi losowymi o rozkładzie jednostajnym na prze-dziale [a, b], to g(X1), g(X2), . . . są niezależnymi zmiennymi losowymi o jednakowym roz-kładzie z wartością oczekiwaną 1

b−a · I. Zatem, na mocy Twierdzenia Chinczyna, mamy

P

(

limn→∞1

n

n∑

k=1

g(Xk) = Eg(X1) =I

b− a

)

= 1,

czyli z prawdopodobieństwem równym 1, dla dużych n, średnia z wartościg(X1), g(X2), . . . , g(Xn) jest dowolnie bliska liczbie 1

b−a · I. Wystarczy więc wygenerowaćwartości zmiennych losowych X1, X2, . . . , Xn z rozkładu jednostajnego na [a, b] i przyjąć

liczbę b−an

n∑

k=1g(Xk) za oszacowanie całki I =

b∫

ag(x)dx.

Metody oparte na symulacji zmiennych losowych nazywają sięmetodami Monte Carlo.Można je również wykorzystywać do obliczania całek wielokrotnych.

3.10 Twierdzenia Graniczne

Mówimy, że dla ciągu (Xn) zmiennych losowych o skończonych wariancjach zachodzi

29

Page 32: Rachunek prawdopodobieństwa – MAEW 104

• Centralne Twierdzenia Graniczne, jeżeli dla dowolnego t ∈ IR

limn→∞P

n∑

k=1Xk − E

n∑

k=1Xk

Varn∑

k=1Xk

< t

=1√2π

t∫

−∞e−x2

2 dx = Φ(t)

Oznacza to, iż dystrybuanty zmiennych losowych Yn =

n∑

k=1

Xk−En∑

k=1

Xk

n∑

k=1

VarXkdążą w każdym

punkcie t ∈ IR do dystrybuanty rozkładu normalnego N(0,1).

Zauważmy, że Yn jest standaryzacją sumy Sn =n∑

k=1Xk.

• Twierdzenie 3.5. (Twierdzenie Lindeberga-Levy’ego)Niech X1, X2, . . . będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkła-dzie, wartości oczekiwanej m i wariancji 0 < σ2 < ∞ . Wówczas dla ciągu (Xn)zachodzi Centralne Twierdzenia Graniczne. Zatem dla dowolnego t ∈ IR prawdziwa jestrówność

limn→∞P

n∑

k=1Xk − nmσ√n

< t

= Φ(t),

gdzie Φ(t) jest dystrybuantą zmiennej losowej o rozkładzie N(0, 1).

W praktyce Twierdzenie Lindeberga-Levy’ego wykorzystuje się przyjmując, że dla dużychn zachodzi przybliżona równość

P

(

a <Sn − nmσ√n< b

)

≈ Φ(b)− Φ(a),

Stosując twierdzenie Lindeberga-Levy’ego do zmiennych o rozkładzie zerojedynkowymotrzymujemy:

• Twierdzenie 3.6. (Twierdzenie Moivre’a-Laplace’a)Niech X1, X2, . . . będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkła-dzie B(1,p). Wówczas dla każdego t ∈ IR zachodzi równość

limn→∞P

(

Sn − np√npq

< t

)

= Φ(t),

gdzie Sn = X1 +X2 + . . .+Xn.

Ważne są uogólnienia Twierdzenie Lindeberga-Levy’ego idące w kierunku osłabiania za-łożeń tego twierdzenia. Okazuje się, że można zastąpić, dość restrykcyjne, założenie ojednakowym rozkładzie zmiennych Xn założeniami dotyczącymi momentów trzeciego rzę-du.

30

Page 33: Rachunek prawdopodobieństwa – MAEW 104

• Twierdzenie 3.7. (Twierdzenie Lapunowa)Jeżeli X1, X2, . . . jest ciągiem niezależnych zmiennych losowych o skończonych trzecichmomentach centralnych spełniającym warunek

limn→∞

3

n∑

k=1E|Xk − EXk|3√

n∑

k=1VarXk

= 0,

to dla ciągu (Xn) zachodzi Centralne Twierdzenie Graniczne.

Istnienie trzecich momentów pozwala też oszacować dokładność przybliżenia w Central-nym Twierdzeniu Granicznym.

• Twierdzenie 3.8. (Twierdzenie Berry-Esseena)Jeżeli X1, X2, . . . jest ciągiem niezależnych zmiennych losowych o tym samym rozkładziei E|X|3 <∞, to prawdziwa jest nierówność

supt ∈ IR

P

n∑

k=1Xk − E

( n∑

k=1Xk)

n∑

k=1VarXk

< t

− Φ(t)

¬ CE|X1 − EX1|3

√n(√

VarX1)3 ,

gdzie1

2π¬ C < 0, 8.

Komentarz.

W prawach wielkich liczb widzieliśmy, że czynnik An = 1n(co daje po prostu śred-

nią arytmetyczną zmiennych X1, X2, . . . , Xn.) jest tak silnie wygaszający, iż powodujekoncentrację rozkładu granicznego w jednym punkcie! W centralnych twierdzeniach gra-nicznych rozpatruje się współczynniki zmierzające wolniej do zera, mianowicie An = 1

σ√n.

Wówczas okazuje się, że graniczna zmienna losowa ma rozkład normalny N(0, 1).

• Przykład 3.39.Z partii towaru o wadliwości 3% pobrano próbę 500-elementową. Obliczyć prawdopodo-bieństwo, że liczba elementów wadliwych w próbie nie przekroczy 4%.

• Przykład 3.40.Samolot zabiera 80 pasażerów. Przyjmując, że waga pasażera jest zmienną losową o rozkła-dzie N(80,10) obliczyć prawdopodobieństwo, że łączna waga pasażerów przekroczy 9000kg.

• Przykład 3.41.Rzucamy 80 razy kostką. Znaleźć najkrótszy przedział, w jaki z prawdopodobieństwemwiększym niż 0, 9 wpada ilość otrzymanych ”szóstek”.

• Przykład 3.42.31

Page 34: Rachunek prawdopodobieństwa – MAEW 104

32

Prawdopodobieństwo spostrzeżenia sputnika z ziemi z określonego punktu obserwacyj-nego jest równe p = 1

10przy każdym locie nad punktem obserwacyjnym. Znaleźć liczbę

lotów, jaką powinien wykonać sputnik, aby z prawdopodobieństwem nie mniejszym niż0,9 liczba Xn spostrzeżeń sputnika była równa co najmniej 10.

• Przykład 3.43.Komputer dodaje 1200 liczb rzeczywistych i każdą zaokrągla do najbliższej liczby cał-kowitej. Błędy zaokrągleń są niezależne i mają rozkład jednostajny na [−1

2, 12]. Obliczyć

prawdopodobieństwo, że błąd w obliczeniu sumy przekroczy 10.

• Przykład 3.44.Czas pracy diody ma rozkład wykładniczy o wartości oczekiwanej m = 900h. Zgroma-dzono zapas 100 diod. Obliczyć prawdopodobieństwo, że wystarczy ich na 100000 godzinpracy, jeżeli każdą diodę włączamy natychmiast po uszkodzeniu poprzedniej. Ile diodtrzeba mieć w zapasie, by z prawdopodobieństwem większym niż 0, 99 wystarczyło ich na99000 godzin pracy urządzenia.