Rachunek prawdopodobie ństwaprac.im.pwr.wroc.pl/~wkosz/Probabilistyka6.pdf · [6] W.Krysicki,...

56
Rachunek prawdopodobieństwa – MAEW 104 Materialy do wykladu przygotowane przez L. Janicką, M. Rutkowską, W. Wawrzyniak-Kosz Literatura [1] J.Jakubowski, R.Sztencel, Wstep do teorii prawdopodobieństwa, SCRIPT, Warszawa 2001 [2] J.Jakubowski, R.Sztencel, Rachunek prawdopodobieństwa dla (prawie) kaŜdego, SCRIPT,Warszawa 2002 [3] T.Inglot, T.Ledwina, T.Lawniczak, Materialy do ćwiczen z rachunku prawdopodobieństwa i statystyki matematycznej, Wydawnictwo Politechniki Wroclawskiej, Wroclaw 1979 [4] H.Jasiulewicz, W.Kordecki, Rachunek prawdopodobieństwa i statystyka matematyczna. Przyklady i zadania, GiS.Wroclaw 2002 [5] W.Kordecki, Rachunek prawdopodobieństwa i statystyka matematyczna. Definicje, twierdzenia, wzory , GiS, Wroclaw 2002 [6] W.Krysicki, J.Bartos,W.Dyczka, K.Królikowska,M.Wasilewski, Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część I, PWN Warszawa, 1997 1.1. Wstęp – częstościowa interpretacja prawdopodobieństwa W otaczającej nas rzeczywistości mamy do czynienia nie tylko z doświadczeniami deterministycznymi ale teŜ z tak zwanymi doświadczeniami losowymi, których wyniku nie potrafimy przewidzieć, jednak potrafimy określić zbiór moŜliwych wyników. Rachunek prawdopodobieństwa zajmuje się opisem doświadczeń losowych, które moŜna powtarzać w tych samych warunkach oraz badaniem prawidlowości którym podlegają. Zaczniemy od opisu pewnego doświadczenia wykonanego przez Rutherforda i Geigera. Obserwowali oni emisję cząstek radioaktywnej substancji w przedzialach czasu o dlugości 7,5 sek. Dokonano n = 2608 doświadczeń. Zaobserwowane wyniki przedstawia tabela, gdzie k oznacza liczbę cząstek wyemitowanych w przedziale czasu o dlugości 7,5 s, n(k) oznacza liczbę obserwacji w których wystąpil wynik k, = = 10 0 ) ( k n k n , w(k) jest częstością pojawienia się wyniku k, n k n k w ) ( ) ( = . k n(k) w(k) 0 53 0,022 1 203 0,078 2 383 0,147 3 525 0,201 4 532 0,204 5 408 0,156 6 273 0,105 7 139 0,053 8 45 0,017 9 27 0,010 10 16 0,006 Wartości funkcji w(k) dla innej serii pomiarów mogą być inne.

Transcript of Rachunek prawdopodobie ństwaprac.im.pwr.wroc.pl/~wkosz/Probabilistyka6.pdf · [6] W.Krysicki,...

  • Rachunek prawdopodobieństwa – MAEW 104 Materiały do wykładu przygotowane przez

    L. Janicką, M. Rutkowską, W. Wawrzyniak-Kosz Literatura [1] J.Jakubowski, R.Sztencel, Wstep do teorii prawdopodobieństwa, SCRIPT, Warszawa 2001 [2] J.Jakubowski, R.Sztencel, Rachunek prawdopodobieństwa dla (prawie) kaŜdego, SCRIPT,Warszawa 2002 [3] T.Inglot, T.Ledwina, T.Ławniczak, Materiały do ćwiczen z rachunku prawdopodobieństwa i statystyki matematycznej, Wydawnictwo Politechniki Wrocławskiej, Wrocław 1979 [4] H.Jasiulewicz, W.Kordecki, Rachunek prawdopodobieństwa i statystyka matematyczna. Przykłady i zadania, GiS.Wrocław 2002 [5] W.Kordecki, Rachunek prawdopodobieństwa i statystyka matematyczna. Definicje, twierdzenia, wzory , GiS, Wrocław 2002 [6] W.Krysicki, J.Bartos,W.Dyczka, K.Królikowska,M.Wasilewski, Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część I, PWN Warszawa, 1997 1.1. Wstęp – częstościowa interpretacja prawdopodobieństwa W otaczającej nas rzeczywistości mamy do czynienia nie tylko z doświadczeniami deterministycznymi ale teŜ z tak zwanymi doświadczeniami losowymi, których wyniku nie potrafimy przewidzieć, jednak potrafimy określić zbiór moŜliwych wyników. Rachunek prawdopodobieństwa zajmuje się opisem doświadczeń losowych, które moŜna powtarzać w tych samych warunkach oraz badaniem prawidłowości którym podlegają. Zaczniemy od opisu pewnego doświadczenia wykonanego przez Rutherforda i Geigera. Obserwowali oni emisję cząstek radioaktywnej substancji w przedziałach czasu o długości 7,5 sek. Dokonano n = 2608 doświadczeń. Zaobserwowane wyniki przedstawia tabela, gdzie k oznacza liczbę cząstek wyemitowanych w przedziale czasu o długości 7,5 s, n(k) oznacza liczbę obserwacji

    w których wystąpił wynik k,∑=

    =10

    0

    )(k

    nkn , w(k) jest częstością pojawienia się wyniku k,

    n

    knkw

    )()( = .

    k n(k) w(k)

    0 53 0,022 1 203 0,078 2 383 0,147 3 525 0,201 4 532 0,204 5 408 0,156 6 273 0,105 7 139 0,053 8 45 0,017 9 27 0,010 ≥ 10 16 0,006

    Wartości funkcji w(k) dla innej serii pomiarów mogą być inne.

  • ZauwaŜono, Ŝe dla długich serii pomiarów wartości funkcji w(k) stabilizują się wokół

    wartości funkcji !

    )(k

    ekp

    kλλ−= , gdzie λ jest pewną stałą (w podanym przykładzie

    877871,3=λ ). Wartości funkcji p(k) nie zaleŜą od n.

    k n(k) w(k) p(k) 0 53 0,022 0,021 1 203 0,078 0,081 2 383 0,147 0,156 3 525 0,201 0,201 4 532 0,204 0,195 5 408 0,156 0,151 6 273 0,105 0,097 7 139 0,053 0,054 8 45 0,017 0,026 9 27 0,010 0,011 ≥ 10 16 0,006 0,007

    0

    0,05

    0,1

    0,15

    0,2

    0,25

    0 1 2 3 4 5 6 7 8 9 10

    liczba emitowanych cząstek

    w(k

    ), p

    (k)

    w(k)

    p(k)

    Inne przykłady doświadczeń losowych to rzut kostką, rzut monetą, obserwacja czasu niezawodnej pracy pewnego urządzenia,..

  • 1.2. Definicja i własności prawdopodobieństwa. Zbiór wszystkich moŜliwych wyników doświadczenia losowego nazywamy przestrzenią zdarzeń elementarnych i oznaczamy przez Ω .Elementy zbioru Ω nazywamy zdarzeniami elementarnymi i oznaczamy przez ω. Przykłady przestrzeni zdarzeń elementarnych.

    1. W doświadczeniu Rutherforda i Geigera obserwowano liczbę cząstek wyemitowanych przez ciało radioaktywne - ,....}2,1,0{=Ω .

    2. Wykonujemy rzut kostką - obserwujemy liczbę oczek na kostce - }6,5,4,3,2,1{=Ω 3. Obserwujemy czas t niezawodnej pracy urządzenia - )},0[:{ ∞∈=Ω tt . 4. Wyznaczamy czas ściągania pliku i liczbę przerw w jego ściąganiu -

    ,....}}2,1,0{),,0[:),{( ∈∞∈=Ω ktkt . 5. Rzucamy symetryczną monetą aŜ do pojawienia się orła - ,....},,{ RROROO=Ω .

    Zdarzeniem losowym nazywamy podzbiór Ω . Zbiór wszystkich zdarzeń oznaczać będziemy literą F. Dla zdarzeń, podobnie jak dla zbiorów, określamy alternatywę (sumę) zdarzeń, koniunkcję (iloczyn) zdarzeń, róŜnicę zdarzeń. Zdarzeniem przeciwnym do zdarzenia A nazywamy zdarzenie A` =Ω \A. Ω nazywamy zdarzeniem pewnym,φ - zdarzeniem niemoŜliwym. JeŜeli φ=BAI , to mówimy, Ŝe zdarzenia A, B wykluczają się. Nie wszystkie podzbiory Ω będziemy uwaŜać za zdarzenie i zaliczyć do zbioru F. Ze względu na wymagania dotyczące działań na zdarzeniach, zakładamy, Ŝe zbiór zdarzeń F spełnia następujące warunki:

    U∞

    =

    ∈⇒∈

    ∈⇒∈≠

    121 ,...,.3

    ,'.2

    ,.1

    nn FAFAA

    FAFA

    F φ

    Rodzinę F nazywamy σ-ciałem zbiorów. Z podanych warunków wynika, Ŝe FAA ∈′∪=Ω , jeśli FA∈ oraz , F∈Ω′=φ . W przypadku dyskretnej (tzn. skończonej lub przeliczalnej) przestrzeni Ω zdarzeniem losowym moŜe być dowolny jej podzbiór. W przypadku nieprzeliczalnej przestrzeni Ω rodzinę F naleŜy precyzyjnie określić. W zagadnieniach dobrym modelem probabilistycznym okazują się pewne podzbiory prostej, płaszczyzny lub przestrzeni. Za rodzinę F przyjmuje się wówczas σ-ciało zbiorów borelowskich na prostej, płaszczyźnie lub w przestrzeni, przez co rozumie się najmniejsze σ-ciało zbiorów zawierające przedziały otwarte (a, b) w R (koła otwarte w R2, kule otwarte w R3) Mówiąc obrazowo, zbiór borelowski w R (w Rk ,k=2,3) to kaŜdy zbiór, który moŜna otrzymać jako wynik przeliczalnych działań mnogościowych wykonanych na rodzinie wszystkich przedziałów na prostej czy kul otwartych w przestrzeni k-wymiarowej (k=2,3). Na przykład zbiorem borelowskim w R jest kaŜdy przedział jednostronnie czy dwustronnie domknięty i kaŜda półprosta. Opisując doświadczenia losowe podajemy zbiór wszystkich moŜliwych wyników, określamy rodzinę F ale najbardziej interesujące są pytania o szansę zajścia poszczególnych zdarzeń. Tę szansę określającą zajście zdarzenia mierzy funkcja zwana prawdopodobieństwem.

  • Definicja 1.2. Prawdopodobieństwem nazywamy funkcję określoną na rodzinie zdarzeń F spełniającą następujące warunki:

    1)(.2

    deg,1)(0.1

    =Ω∈≤≤

    P

    FAokaŜdlaAP

    3. JeŜeli ,..., 21 AA są parami rozłączne (tzn. ,φ=∩ ji AA dla dowolnych ji ≠ ), to

    U∞

    =

    =∑=

    1 1

    )()(n n

    nn APAP .

    W szczególności )()()( BPAPBAP +=∪ dla zdarzeń rozłącznych A, B. Z powyŜszych warunków (aksjomatów) wynika wiele własności prawdopodobieństwa, z których najwaŜniejsze są przedstawione poniŜej: Fakt 1.3.

    1. JeŜeli ),()(, BPAPtoBA ≤⊂ 2. P(A’) = 1 – P(A), a stąd P(φ) = 0. 3. JeŜeli )()()()()\(, BAPBPAPBPABPtoBA ∩−=−=⊂ , 4. BAPBPAPBAP ∩−+=∪ ()()()( ).

    5. Un

    i

    n

    iii APAP

    1 1

    )()(= =

    ∑≤ .

    6. JeŜeli ),(lim)(...,1

    21 nn

    nn APAPtoAA U

    =∞→

    =⊂⊂

    7. JeŜeli ).(lim)(...,1

    21 nn

    nn APAPtoAA I

    =∞→

    =⊃⊃

    W przypadku trzech zbiorów A, B, C wzór z punktu 4. przyjmie postać:

    )()()()()()()()( CBAPACPCBPBAPCPBPAPCBAP ∩∩+∩−∩−∩−++=∪∪ a przypadku dowolnej, skończonej liczby zbiorów wzór ten moŜna uogólnić w następujący sposób:

    Un

    i ni niin

    niiii AAPAAPAPAP

    1 1 11

    1

    21

    21)...()1(...)()()(

    = ≤≤ ≤

  • 1

    • Przykład 1.1.Niech A,B,C będą zdarzeniami. Zapisać za pomocą działań na zbiorach następującezdarzenia:a) zachodzi dokładnie jedno ze zdarzeń A,B,C;b) zachodzą dokładnie dwa spośród zdarzeń A,B,C;c) zachodzą przynajmniej dwa spośród zdarzeń A,B,C.d) zachodzą co najwyżej dwa spośród zdarzeń A,B,C.R o z w i ą z a n i e.a) Zachodzi dokładnie jedno ze zdarzeń A,B,C, to oznacza dokładnie, że zachodzi A i niezachodzą B ani C lub zachodzi B i nie zachodzą A ani C lub zachodzi C i nie zachodząA ani B czyli, że zachodzi zdarzenie

    A ∩ B′ ∩ C ′ ∪ A′ ∩ B ∩ C ′ ∪A′ ∩ B′ ∩ C.

    b) Podobnie — zachodzą dokładnie dwa spośród zdarzeń A,B,C oznacza, że zachodzizdarzenie

    A ∩B ∩ C ′ ∪A ∩B′ ∩ C ∪ A′ ∩ B ∩ C.

    c) Zachodzą przynajmniej dwa spośród zdarzeń A,B,C oznacza, że zachodzą dokład-nie dwa spośród zdarzeń A,B,C lub zachodzą wszystkie trzy zdarzenia, czyli zachodzizdarzenie

    A ∩ B ∩ C ′ ∪ A ∩B′ ∩ C ∪A′ ∩B ∩ C ∪ A ∩ B ∩ C.

    d) Zachodzą co najwyżej dwa spośród zdarzeń A,B,C oznacza, że nie zachodzą wszystkietrzy zdarzenia, czyli zachodzi zdarzenie

    (A ∩B ∩ C)′ = A′ ∪ B′ ∪ C ′.

    • Przykład 1.2.Studenci Wydziału Elektroniki muszą zaliczyć dwa lektoraty: z języka angielskiego i z ję-zyka niemieckiego. Z danych Dziekanatu wynika, że 2

    3studentów zalicza lektorat z języka

    angielskiego, oba lektoraty zalicza co czwarty student, zaś przynajmniej jeden z lekto-ratów zalicza również 2

    3studentów. Jakie jest prawdopodobieństwo, że losowo wybrany

    student:a) nie zaliczył żadnego lektoratu?b) zaliczył język angielski i nie zaliczył języka niemieckiego?R o z w i ą z a n i e.Niech A oznacza zdarzenie ”losowo wybrany student zaliczył lektorat z języka angielskie-go”, przyjmujemy, że P (A) = 2

    3, B - zdarzenie ”losowo wybrany student zaliczył lektorat

    z języka niemieckiego”.a) Oczywiście chodzi o zdarzenie A′ ∩ B′, więc

    P (A′ ∩B′) = P ((A ∪ B)′) = 1− P (A ∪B) = 1− 23= 13

    1

  • b) Podobnie: P (A∩B) = 14, P (A∪B) = 2

    3, więc P (A\B) = P (A)−P (A∩B) = 2

    3− 14= 512

    • Przykład 1.3.Studenci Wydziału PPT zdają w sesji zimowej I roku egzaminy z przedmiotów A,B,C.Wiadomo, z danych poprzednich lat, że przedmiot A zalicza 60% studentów, przedmiot Bzalicza 80% studentów i przedmiot C zalicza 70% studentów. Studenci, którzy zaliczyli Ai B stanowią 55% ogółu, ci którzy zaliczyli A i C stanowią 45% ogółu a studenci, którzyzaliczyli B i C stanowią 60% ogółu. Sesję zimową zalicza ok. 40% studentów. Obliczyćprawdopodobieństwo, że losowo wybrany student:a) zaliczył przynajmniej jeden egzamin,b) zaliczył przynajmniej dwa egzaminy.R o z w i ą z a n i e.Wiemy, że P (A) = 3

    5, P (B) = 4

    5, P (C) = 7

    10oraz

    P (A ∩ B) = 55100, P (A ∩ C) = 45

    100, P (C ∩ B) = 60

    100, P (A ∩B ∩ C) = 40

    100.

    Zatem:a) P (A∪B∪C) = P (A)+P (B)+P (C)−P (A∩B)−P (B∩C)−P (C∩A)+P (A∩B∩C) =35+ 45+ 710− 55100− 45100− 60100+ 40100= 910.

    b) P (A∩B ∪A∩C ∪B ∩C)) = P (A∩B) + P (A∩C) + P (B ∩C)−P ((A∩B)∩ (A∩C))−P ((A∩B)∩ (B ∩C))−P ((A∩C)∩ (B ∩C)) +P ((A∩B)∩ (A∩C)∩ (B ∩C)) =P (A ∩B) + P (A ∩ C) + P (B ∩ C)− 2P (A ∩B ∩ C) = 8

    10.

    1.1 Przykłady przestrzeni probabilistycznych.

    1.1.1 Prawdopodobieństwo klasyczne

    Przestrzeń Ω = {ω1, ω2, . . . , ωn} jest zbiorem n zdarzeń elementarnych, z których każdezachodzi z tym samym prawdopodobieństwem, czyli P ({ωk}) = 1n dla k = 1, 2, . . . , n.Zgodnie z Faktem 1.4. wzór

    P (A) =A

    n, (1)

    gdzie A oznacza liczbę elementów zbioru A, określa prawdopodobieństwo na wszystkichzdarzeniach A ⊂ Ω. Jest to tzw. prawdopodobieństwo klasyczne.W rozwiązywaniu zagadnień, w których przestrzeń zdarzeń elementarnych jest skończonaprzydadzą się nam wiadomości z kombinatoryki.

    Podstawowe schematy kombinatoryczne

    Niech A oznacza dowolny zbiór n różnych elementów A = {a1, a2, . . . , an}.

    • Wariacje z powtórzeniami.

    k-wyrazową wariacją z powtórzeniami zbioru A nazywamy każdy k-wyrazowy ciągelementów tego zbioru Liczba V kn wszystkich wariacji k-wyrazowych z powtórzeniami zezbioru n-elementowego wynosi

    Vk

    n = nk. (2)

    2

  • • Wariacje bez powtórzeń.

    k-wyrazową wariacją bez powtórzeń zbioru A (k ¬ n)nazywamy każdy k-wyrazowyciąg różnych elementów tego zbioru Liczba V kn wszystkich k-wyrazowych wariacji bezpowtórzeń ze zbioru n-elementowego wynosi

    V kn = n(n− 1)(n− 2) · · · · · (n− k + 1) (3)

    Jeżeli k = n, to k-wyrazową wariację bez powtórzeń ze zbioru A nazywamy n-wyrazowąpermutacją. Zatem liczba Pn wszystkich permutacji zbioru n-elementowego wynosi

    Pn = n!. (4)

    • Kombinacje.

    k-elementową kombinacją bez powtórzeń z n-elementowego zbioru A nazywamykażdy k-elementowy podzbiór zbioru A. Liczba Ckn wszystkich kombinacji k-elementowychbez powtórzeń ze zbioru n-elementowego wynosi

    Ckn =

    (

    n

    k

    )

    . (5)

    • Kombinacje z powtórzeniami.

    k-elementową kombinacją z powtórzeniami z n-elementowego zbioru A nazy-wamy zbiór składający się z k elementów, różnych lub nie różniących się między sobą,wybranych spośród n elementów, przy czym nie jest istotna kolejność, w jakiej elementytego zbioru są ustawione. Liczba C

    k

    n wszystkich k-elementowych kombinacji z powtórze-niami ze zbioru n-elementowego jest taka sama, jak liczba wszystkich różnych zbiorówk-elementowych, jakie można utworzyć ze zbioru (n+k-1) elementów. Kombinacje z po-wtórzeniami można interpretować, jako rozmieszczenie k nierozróżnialnych elementów w nszufladach, przy czym w każdej szufladzie może być dowolna, nie przekraczająca k, liczbaelementów.

    Ck

    n =

    (

    k + n− 1k

    )

    =

    (

    k + n− 1n− 1

    )

    . (6)

    • Przykład 1.4.W teorii cząstek elementarnych bada się rozmieszczenie k cząstek w podzielonej na komór-ki przestrzeni fazowej, którą można matematycznie opisać np.jako podzbiór przestrzeniczterowymiarowej, gdzie współrzędnymi są położenie i pęd cząstki. Fizycy stwierdzili do-świadczalnie, że niektóre cząstki zachowują się, jak kule rozróżnialne, inne - jak kulenierozróżnialne i zaproponowali trzy następujące modele zachowania się cząstek :a) statystyka Maxwella-Boltzmanna. Cząstki zachowują się, jak kule rozróżnialne, więcpytając o liczbę możliwych rozmieszczeń k cząstek w n komórkach mamy do czynienia zwariacjami z powtórzeniami i każde spośród nk rozmieszczeń jest jednakowo prawdopo-dobne. Nie znaleziono jeszcze cząstek, które zachowywałyby się zgodnie z tym modelem.

    b) statystyka Fermiego-Diraca. Cząstki zachowują się, jak kule nierozróżnialne, ale w każ-dej komórce może być co najwyżej jedna cząstka i wszystkie możliwe rozmieszczenia sąjednakowo prawdopodobne. Tak zachowują się np. elektrony, protony i neutrony.

    c) statystyka Bosego-Einsteina. Cząstki zachowują się, jak kule nierozróżnialne, w każdej

    3

  • komórce może być dowolna liczba cząstek i wszystkie możliwe rozmieszczenia są jednako-wo prawdopodobne. Tak zachowują się np. fotony.

    Zadanie — w każdym z rozważanych wyżej modeli wyznaczyć prawdopodobieństwo, zjakim k (k ¬ n) cząstek można rozmieścić po jednej w k z góry zadanych komórkach.R o z w i ą z a n i e.a) Przy ustalonej permutacji k rozróżnialnych cząstek tylko jedno rozmieszczenie spośródwszystkich nk możliwych rozmieszczeń spełnia żądany warunek. Ponieważ cząstki moż-na ustawić na k! sposobów, więc prawdopodobieństwo, z jakim k rozróżnialnych cząstekmożna rozmieścić po jednej w k z góry zadanych komórkach równe jest k!

    nk.

    b) Jeżeli nie odróżniamy cząstek, ale w każdej komórce może być co najwyżej jedna towystarczy wybrać k spośród n komórek i wrzucić do niej cząstkę, a to można zrobić na(

    n

    k

    )

    sposobów. Tylko jeden z nich spełnia warunek z zadania, więc prawdopodobieństwo,z jakim k nierozróżnialnych cząstek można rozmieścić po jednej w k z góry zadanychkomórkach wynosi 1(nk)

    .

    c) W tym przypadku mamy do czynienia z k-elementowymi kombinacjami z powtórze-niami z n różnych elementów. Dla ustalonych k-komórek jest tylko jeden ciąg cząstekspełniający warunki zadania, więc prawdopodobieństwo, z jakim k nierozróżnialnych czą-stek można rozmieścić po jednej w k z góry zadanych komórkach wynosi 1(k+n−1k )

    .

    • Przykład 1.5.W pudle są kule białe i czarne. Razem jest ich n. Ile powinno być kul czarnych, aby praw-dopodobieństwo wylosowania (bez zwracania) dwu kul różnych kolorów było takie samo,jak prawdopodobieństwo wylosowania dwu kul tego samego koloru?R o z w i ą z a n i e.Dwie spośród n kul można wybrać na

    (

    n

    2

    )

    sposobów. Oznaczmy przez k liczbę kul czar-nych. Zdarzeniu A ”wylosowano dwie kule różnych kolorów” sprzyja k(n − k) zdarzeńelementarnych. Zdarzeniu B ”wylosowano kule tego samego koloru” sprzyja

    (

    k

    2

    )

    +(

    n−k2

    )

    zdarzeń elementarnych. Wykorzystując wzór na prawdopodobieństwo klasyczne otrzymu-jemy

    P (A) = k·(n−k)·2n(n−1) oraz P (B) =

    2k2−2nk+n2−nn(n−1) .

    Ponieważ zdarzenia A i B są przeciwne, to zamiast warunku P (A) = P (B) wystarczyrozważać jeden z warunków P (A) = 1

    2lub P (B) = 1

    2. Każdy z nich jest równoważny

    równaniu4k2 − 4kn+ n2 − n = 0.

    Rozwiązaniami tego równania są liczby k1 =n+√n

    2oraz k2 =

    n−√n2. Zauważmy, że jeżeli√

    n nie jest liczbą naturalną, to zadanie nie ma rozwiązania. Jeżeli zaś√n jest liczbą

    naturalną, to zarówno

    k1 =n−√n2=√n(√n−1)2

    jak i k2 =n+√n

    2=√n(√n+1)2

    są liczbami naturalnymi oraz k1 + k2 = n.Podsumowując — zadanie ma rozwiązanie jedynie w przypadku, gdy n jest kwadratemliczby naturalnej (tylko wówczas

    √n jest liczbą naturalną), czarnych kul powinno być

    k1 =n−√n2=√n(√n−1)2

    lub k2 =n+√n

    2=√n(√n+1)2

    .

    4

  • • Przykład 1.6.W szufladzie są dwie skarpety na prawą nogę i jedna na lewą nogę. Prawdopodobieństwo,że losowo wybierając dwie skarpety otrzymamy parę równe jest 2(32)

    = 23, zaś prawdopodo-

    bieństwo wyciągnięcia dwu prawych wynosi (22)(32)= 13. Do szuflady dołożono jedną skarpetę.

    Jaka to jest skarpeta, skoro teraz prawdopodobieństwo, że wylosowane dwie skarpety sta-nowią parę, wynosi 1

    2?

    R o z w i ą z a n i e.Wykorzystajmy poprzedni przykład. Mamy n = 4. Wylosowanie pary skarpet odpowia-da wylosowaniu kul różnych kolorów. Zatem skarpet jednego typu może być k1 = 3 lubk2 = 1, czyli dołożono prawą skarpetę.

    • Przykład 1.7.Przypuśćmy, że do jeziora zawierającego nieznaną liczbę N ryb wpuszczono dodatkowo1000 ryb oznakowanych (np. pomalowanych na czerwono). Po pewnym czasie dokonanopołowu 1000 ryb i znaleziono wśród nich 100 ryb z czerwonymi plamami. Jak na podsta-wie tych danych ocenić liczbę ryb w jeziorze?R o z w i ą z a n i e.Za ocenę N przyjmiemy taką liczbę, dla której prawdopodobieństwo wyłowienia 100 zna-czonych ryb spośród 1000 jest największe. Przyjmując, że liczba ryb w jeziorze równasię (N + 1000), wyznaczymy prawdopodobieństwo pN(A), gdzie A oznacza zdarzenie po-legające na wylosowaniu 100 ryb oznaczonych przy losowaniu 1000 ryb. Ω jest zbioremkombinacji 1000-elementowych ze zbioru N + 1000 elementowego. Wśród wylosowanychjest 900 nieoznakowanych, więc N 900. Stąd

    Ω =(

    N+10001000

    )

    , A =(

    1000100

    )(

    N

    900

    )

    , więc pN(A) =(1000100 )( N900)(N+10001000 )

    .

    Aby określić najbardziej prawdopodobną liczbę ryb w jeziorze, wyznaczymy wartość N,przy której pN(A) osiąga wartość maksymalną. Rozpatrzmy

    pN (A)pN−1(A)

    = N2

    (N−900)(N+1000) = 1 +−100N+900·1000(N−900)(N+1000) .

    Zauważmy, że iloraz ten jest większy od 1 bądź mniejszy niż 1 w zależności od tego, czy100N < 900 · 1000, czy 100N > 900 · 1000. Oznacza to, że gdy N rośnie, liczby pN (A)najpierw rosną a potem maleją. Rozważany iloraz osiąga wartość największą, gdy N jestnajwiększą liczbą naturalną nie przekraczjącą 900·1000

    100, czyli N = 900·1000

    100lub N = 8999.

    1.1.2 Przeliczalna nieskończona przestrzeń probabilistyczna

    Niech Ω = {ω1, ω2, . . . }. Jeżeli P (ωi) = pi przy czym pi 0 oraz∞∑

    i=1pi = 1, to prawdopo-

    dobieństwo zdarzenia A ⊂ Ω określone jest wzoremP (A) =

    ωi ∈ A

    pi. (7)

    5

  • • Przykład 1.8.Dwaj gracze, A oraz B, rzucają na przemian monetą, dopóki dwa razy pod rząd upadnieona na tę samą stronę. Jeżeli drugi pod rząd orzeł albo druga pod rząd reszka pojawi sięw rzucie nieparzystym, to wygrywa gracz A. W przeciwnym przypadku wygrywa graczB. Obliczyć prawdopodobieństwo wygranej dla każdego z graczy.R o z w i ą z a n i e.W opisanej grze zdarzeniem elementarnym jest ciąg, którego elementami są orły lub reszkii na ostatnich dwu miejscach, po raz pierwszy pod rząd są dwa orły lub dwie reszki, czyliΩ = {oo, rr, orr, roo, oroo, rorr, . . .} ma nieskończenie, ale przeliczalnie, wiele zdarzeńelementarnych. Niech αk oznacza zdarzenie ”druga reszka pod rząd pojawiła się po razpierwszy w k-tym rzucie monetą”, zaś βk - ”drugi orzeł pod rząd pojawił się po razpierwszy w k-tym rzucie.”. Oczywiście k = 2, 3, . . . . Na przykład α5 = ororr, β5 = roroo.Prawdopodobieństwo dla zdarzeń αk, βk wynosi

    P ({αk}) = P ({βk}) = 2−k, k = 2, 3, . . . .Gracz A wygra, jeżeli zajdzie zdarzenie A = {α3, β3, α5, β5, . . .}. Wygranej gracz a Bsprzyja zdarzenie A = {α2, β2, α4, β4, . . .}. Zatem

    P (A) =∞∑

    k=1P ({α2k+1, β2k+1}) = 2

    ∞∑

    k=12−(2k+1) = 2 · 2−3 · 1

    1−2−2 =13

    oraz

    P (B) =∞∑

    k=1P ({α2k, β2k}) = 2

    ∞∑

    k=12−2k = 2 · 2−2 · 1

    1−2−2 =23.

    Prawdopodobieństwo wygranej gracza, który rzuca monetą na parzystych miejscach jestdwa razy większe niż gracza, który rzuca monetą na nieparzystych miejscach. W tej grzepozwólmy przeciwnikowi rozpocząć grę! My rzucajmy na miejscach parzystych!

    1.1.3 Prawdopodobieństwo geometryczne

    W wielu zagadnieniach zbiór Ω można przedstawić jako podzbiór borelowski przestrzeniIR (IR2 lub IR3), który ma skończoną miarę m - długość (pole, objętość). Dla zdarzenialosowego A ⊂ Ω, dla którego tę miarę potrafimy obliczyć, prawdopodobieństwo zdarzeniaA zdefiniowane wzorem

    P (A) =m(A)m(Ω)

    , (8)

    nazywamy prawdopodobieństwem geometrycznym.

    • Przykład 1.9.Kawałek drutu o długości 20cm zgięto pod kątem prostym w przypadkowo wybranympunkcie. Następnie zgięto drut jeszcze w dwu punktach tak, by powstała ramka prosto-kątna o obwodzie 20cm.a) Jakie jest prawdopodobieństwo, że pole ograniczone ramką nie przekroczy 21cm2?b) Jakie jest prawdopodobieństwo, że pole ograniczone ramką jest równe 21cm2?R o z w i ą z a n i e.a) Niech x oznacza odległość wybranego punktu od bliższego końca drutu. WówczasΩ = [0, 10]. Zdarzenie A ”pole ograniczone ramką nie przekracza 21cm2” zachodzi wtedyi tylko wtedy, gdy x(10− x) ¬ 21. Rozwiązując nierówność

    −x2 + 10x− 21 ¬ 0 dla x ∈ [0, 10]

    6

  • otrzymujemy

    A = {x ∈ [0, 10] : x ∈ [0, 3] ∪ [7, 10]}, więc P (A) = m(A)m(Ω)= 610.

    b) Niech B oznacza zdarzenie ”pole ograniczone ramką jest równe 21cm2”. Wówczas Bzachodzi wtedy i tylko wtedy, gdy x = 3 lub x = 7, więc P (B) = m(B)

    m(Ω)= 0, ponieważ

    długość zbioru złożonego z dwu punktów wynosi 0. Zauważmy, że zdarzenie B jest możliweale prawdopodobieństwo jego zajścia równe jest 0.

    • Przykład 1.10.W każdej chwili odcinka czasu T jednakowo możliwe jest nadejście do odbiornika każde-go z dwu sygnałów, które w tym odcinku czasu zostaną przesłane. Odbiornik nie możeprzyjąć drugiego sygnału, jeżeli nadejdzie on w czasie krótszym niż τ od chwili nadejściapierwszego sygnału. Obliczyć prawdopodobieństwo przyjęcia przez odbiornik obu sygna-łów.R o z w i ą z a n i e.Niech x i y oznaczają czasy nadej-ścia sygnałów do odbiornika. Wtedyprzestrzeń zdarzeń elementarnych

    Ω = {(x, y) : x, y ∈ [0, T ]}

    możemy interpretować jako kwadrato boku T a interesujące nas zdarze-nie można zapisać w postaci

    A = {(x, y) ∈ T × T : |x− y| τ}.

    Zatem P (A) = (T−τ)2

    T 2=(

    1− τT

    )2.

    x

    y

    OT

    T

    τ

    τ

    Rys. 1.01.

    • Przykład 1.11.Z przedziału [0, 1] wybieramy losowo trzy liczby x, y, z. Jakie jest prawdopodobieństwo,że ich suma jest liczbą z przedziału [1

    2, 1]?

    R o z w i ą z a n i e.W tym przykładzie Ω = {(x, y, z) : 0 ¬ x, y, z ¬ 1}, czyli geometrycznie Ω jest sześcianemjednostkowym. Rozważane zdarzenie to zbiór

    A ={

    (x, y, z) : 12¬ x+ y + z ¬ 1

    }

    .

    Tutaj m(A) jest objętością zbioru A, który jest różnicą dwu ostrosłupów. Zatem

    m(A) = 13

    (

    12· 1 · 1− 1

    2· 12· 12

    )

    = 13· 38= 18.

    Ponieważ m(Ω) = 1, więc P (A) = 18.

    7

  • 2 Prawdopodobieństwo warunkowe.

    Niezależność zdarzeń.

    2.1 Prawdopodobieństwo warunkowe.

    Niech (Ω,F , P ) będzie przestrzenią probabilistyczną, a B - dowolnie ustalonym zdarze-niem takim, że P (B) > 0.

    • Definicja 2.1. Prawdopodobieństwem warunkowym zdarzenia A pod warunkiem B nazy-wamy liczbę

    P (A|B) = P (A ∩B)P (B)

    .

    Stąd oczywiście P (A ∩B) = P (A|B)P (B).Posługując się zasadą indukcji matematycznej możemy udowodnić, że dla dowolnego n,przy założeniu, że P (A1 ∩ · · · ∩An−1) > 0, prawdziwa jest równość

    P (A1 ∩ · · · ∩ An) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) · . . . · P (An|A1 ∩ · · · ∩An−1). (9)

    • Fakt 2.2. Jeżeli P (B) > 0, to funkcja P (·|B) określona na F spełnia aksjomaty praw-dopodobieństwa.

    • Przykład 2.1.Rzucamy dwa razy symetryczną kostką.

    a) Jakie jest prawdopodobieństwo wyrzucenia różnej liczby oczek?

    b) Jakie jest prawdopodobieństwo wyrzucenia różnej liczby oczek, jeżeli suma oczek wy-nosi 11?c) Jakie jest prawdopodobieństwo wyrzucenia różnej liczby oczek, jeżeli suma oczek wy-nosi 10?R o z w i ą z a n i e.Przestrzeń zdarzeń elementarnych Ω jest zbiorem par uporządkowanych (a, b), gdziea, b ∈ {1, 2, 3, 4, 5, 6}. Wszystkie zdarzenia elementarne są jednakowo prawdopodobne.a) Niech A oznacza zdarzenie ”wypadła różna liczba oczek”, czyli

    A = {(a, b) ∈Ω : a 6= b} = Ω \ {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}.

    Ponieważ Ω = 62 = 36 oraz A = 36 − 6 = 30, więc P (A) = 3036= 56. b) Zdarzenie ”suma

    oczek wynosi 11” oznaczmy przez B. Oczywiście B = {(5, 6), (6, 5)}. Ponieważ B ⊂ A,więc B ∩ A = B i stąd

    P (A|B) = P (B)P (B)= 1.

    W tym przykładzie informacja o zdarzeniu B dawała pewność, że zajdzie zdarzenie A.c) Warunkiem jest zdarzenie D = {(4, 6), (6, 4), (5, 5)}. Mamy:

    P (D) = 112, A ∩D = {(4, 6), (6, 4)}, P (A ∩D) = 1

    18.

    Zatem

    8

  • P (A|D) = P (A∩D)P (D)

    = 23.

    Jak widać, przy różnych warunkach prawdopodobieństwo zajścia zdarzenia A jest różne.

    • Przykład 2.2.Wybrano losowo dwie liczby z przedziału [0, 1]. Jakie jest prawdopodobieństwo, że xy 0, 09 , jeżeli wiadomo, że x+ y ¬ 1 ?R o z w i ą z a n i e.

    Przestrzeń zdarzeń elementarnych jest kwadratem jednost-kowym Ω = {(x, y) : x, y ∈ [0, 1]}.Interesujące nas zdarzenia to A = {(x, y) : xy 0.09}oraz B = {(x, y) : x + y ¬ 1}. Oczywiście P (B) = 1

    2.

    Ponieważ

    A ∩ B ={

    (x, y) : 0.1 ¬ x ¬ 0, 9; 0,09x¬ y ¬ 1− x

    }

    ,

    więc P (A ∩ B) =0.9∫

    0,1(1− x− 0,09

    x)dx = 2

    5− 9100ln 9.

    Stąd P (A|B) = P (A∩B)P (B)

    = 2 ·(

    25− 9100ln 9

    )

    .

    x

    y

    O 1

    1

    Rys. 1.02.

    • Przykład 2.3.Studenci Wydziału Elektroniki muszą zdać w I semestrze trzy egzaminy: z fizyki (A),analizy matematycznej (C) i z algebry (B). Z danych Dziekanatu wynika, że 70% stu-dentów zalicza I semestr a 90% - zdaje egzamin z fizyki. Jeżeli student zaliczy algebrę ifizykę, to prawdopodobieństwo, że zda analizę wynosi 4

    5. Jakie jest prawdopodobieństwo,

    że student, który zdał fizykę, zda algebrę?R o z w i ą z a n i e.Skorzystamy ze wzoru

    P (A ∩ B ∩ C) = P (A) · P (B|A) · P (C|A ∩ B).

    Mamy 710= 910· P (B|A) · 4

    5, skąd P (B|A) = 18

    25.

    2.2 Wzór na prawdopodobieństwo całkowite i wzór Bayesa.

    Załóżmy,że Ω jest sumą rozłącznych zbiorów Bi ∈F dla i ∈ I. Wówczas dla dowolnegozdarzenia A zbiory A ∩ Bi są parami rozłączne. Ponadto A=

    i ∈ I

    (A ∩Bi), więc P (A)=∑

    i∈P (A∩Bi). Jeżeli wszystkie zdarzenia Bi mają dodatnie prawdopodobieństwo, to P (A∩Bi)=P (A|Bi) · P (Bi) dla każdego i∈I i otrzymujemy następujące twierdzenie.

    • Twierdzenie 2.1. (Twierdzenie o prawdopodobieństwie całkowitym)Jeżeli Ω jest sumą rozłącznych zbiorów Bi, przy czym P (Bi) > 0 dla wszystkich i∈I, todla dowolnego zdarzenia A zachodzi równość

    P (A) =∑

    i∈ I

    P (A|Bi) · P (Bi).

    9

  • Czasem zdarzenia Bi występujące we wzorze na prawdopodobieństwo całkowite nazywa-my przyczynami, zdarzenie A - skutkiem. Rozważmy zagadnienie w pewnym sensieodwrotne do zagadnienia obliczania prawdopodobieństwa całkowitego. Mianowicie zapy-tajmy, jakie jest prawdopodobieństwo przyczyny Bi, gdy znany jest skutek A. PonieważP (Bi ∩A)=P (A|Bi) · P (Bi), więc otrzymujemy tzw. wzór Bayesa

    P (Bi|A) =P (A|Bi)P (Bi)

    i∈ IP (A|Bi) · P (Bi)

    . (10)

    Wzór Bayesa nazywamy wzorem na prawdopodobieństwo przyczyny.

    • Przykład 2.4.Na stole leży 5 długopisów. Każde przypuszczenie (hipoteza) dotyczące liczby zepsutychdługopisów jest jednakowo prawdopodobne. Wybrany losowo długopis okazał się zepsuty.Które przypuszczenie dotyczące liczby zepsutych długopisów jest najbardziej prawdopo-dobne?R o z w i ą z a n i e.Oznaczmy przez Hi hipotezę, że liczba zepsutych długopisów wynosi i, i = 0, 1, 2, 3, 4, 5.Mamy P (Hi) = 16 . Niech A oznacza zdarzenie ”wylosowany długopis jest zepsuty”, wów-czas P (A|Hi) = i5 . Zatem, ze wzoru na prawdopodobieństwo całkowite otrzymujemy

    P (A) =5∑

    i=0

    i

    5· 16=12,

    a stąd

    P (Hi|A) =P (A|Hi) · P (Hi)

    P (A)=i5· 1612

    =i

    15.

    Przy warunku, że wylosowano zepsuty długopis najbardziej prawdopodobne jest, że wszyst-kie długopisy są zepsute.

    W statystyce prawdopodobieństwa hipotez P (Hi) nazywamy prawdopodobieństwamia priori (przed doświadczeniem), prawdopodobieństwa P (Hi|A) - prawdopodobieństwa-mi a posteriori (po doświadczeniu).

    • Przykład 2.5.Telegraficzne przesyłanie informacji polega na wysyłaniu sygnałów: 0 albo 1. Przy przesy-łaniu 0 przekłamanie występuje w dwu przypadkach na trzydzieści, a przy przesyłaniu 1przekłamanie występuje w dwu przypadkach na czterdzieści. Stosunek liczby wysyłanych0 do liczby wysyłanych 1 wynosi 5 : 3. Obliczyć prawdopodobieństwo, że:

    a) wysłano 0, jeżeli wiadomo, że odebrano 0,b) wysłano 1, jeżeli wiadomo, że odebrano 1,c) wysłano 1, jeżeli wiadomo, że odebrano 0.R o z w i ą z a n i e.a) Oznaczmy przez B1 zdarzenie ”wysłano 0”, przez B2 zdarzenie ”wysłano 1”, przezA1 zdarzenie ”odebrano 0” oraz przez A2 zdarzenie ”odebrano 1” . Wiemy, że

    P (A2|B1) = 230 , P (A1|B2) = 240 ,P (B1)P (B2)

    = 53.

    10

  • Zgodnie ze wzorem Bayesa, prawdopodobieństwo zdarzenia ”wysłano 0, jeżeli odebrano0” równe jest

    P (B1|A1) = P (A1|B1)·P (B1)P (A1) .

    Zdarzenia B1, B2 spełniają założenia twierdzenia o prawdopodobieństwie całkowitym,więc

    P (A1) = P (A1|B1) · P (B1) + P (A1|B2) · P (B2).Ponieważ P (B2) = 35P (B1) oraz P (A1|B1) = 1− P (A2|B1), więc

    P (B1|A1) = 1−P (A2|B1)1−P (A2|B1)+P (A1|B2)· 35 =280289≈ 0, 969.

    b) Zgodnie ze wzorem Bayesa, prawdopodobieństwo zdarzenia ”wysłano 1, jeżeli odebrano1” równe jest

    P (B2|A2) = P (A2|B2)·P (B2)P (A2) .

    Zdarzenia B1, B2 spełniają założenia twierdzenia o prawdopodobieństwie całkowitym,więc

    P (A2) = P (A2|B1) · P (B1) + P (A2|B2) · P (B2).Ponieważ P (B1) = 53P (B2) oraz P (A2|B2) = 1− P (A1|B2), więc

    P (B2|A2) = 1−P (A1|B2)1−P (A1|B2)+P (A1|B2)· 53 ≈ 0, 919

    c) P (B2|A1) = 1− P (B1|A1) = 1− 0.969 = 0.031.

    • Przykład 2.6.Przeciętnie 3% wyprodukowanych elementów ma wadę. Do wykrywania wady stosuje siętest, który z prawdopodobieństwem 0, 9 wskazuje wadę (wynik testu pozytywny), jeżelielement ma wadę i z prawdopodobieństwem 0, 95 nie wskazuje wady, jeżeli element jej niema.a) Jakie jest prawdopodobieństwo, że element ma wadę, jeżeli wynik testu jest pozytywny?b) Jakie jest powyższe prawdopodobieństwo, jeżeli element poddamy testowi dwukrotniei za każdym razem otrzymamy pozytywny wynik testu?R o z w i ą z a n i e.a) Oznaczmy przez W zdarzenie ”element ma wadę” i przez N zdarzenie ”element nie mawady.” Zdarzenia te są rozłączne, W ∪N = Ω oraz

    P (W ) = 0.03, P (N) = 0.97.

    Niech D oznacza zdarzenie ”wynik testu jest pozytywny”. Z danych zawartych w zadaniuwynika, że

    P (D|W ) = 0.9, P (D′|N) = 0.95.

    Do obliczenia prawdopodobieństwa zdarzenia ”element ma wadę, jeżeli wynik testu byłpozytywny”, czyli prawdopodobieństwa warunkowego P (W |D) wykorzystamy wzór Bay-esa.

    P (W |D) = P (D|W )·P (W )P (D)

    = P (D|W )·P (W )P (D|W )·P (W )+P (D|N)·P (N) =

    0.9·0.030.9·0.03+0.05·0.97 = 0.358

    ponieważ z własności prawdopodobieństwa warunkowego wynika, że

    11

  • P (D|N) = 1− P (D′|N).Zatem, jeżeli wynik testu jest pozytywny, to prawdopodobieństwo, że losowo wybranyelement ma wadę wynosi 35, 8%, czyli wśród elementów, które test wskazuje jako wadliwetylko 35, 8% elementów ma wadę! Co wpływa na taką jakość testu? Jaki test byłby lepszy?Dla wad, które występują rzadko należałoby wykorzystywać testy o większych wartościachP (D|W ) oraz P (D′|N).b) Obliczamy, jakie jest prawdopodobieństwo, że element ma wadę, jeżeli test przeprowa-dzony na nim dwukrotnie dał wyniki pozytywne.Niech A oznacza zdarzenie ”test przeprowadzony dwukrotnie na elemencie dał za każdymrazem wynik pozytywny”. Wówczas

    P (A|W ) = P (D|W ) · P (D|W ) oraz P (A|N) = P (D|N) · P (D|N).Stąd P (W |A) = P (A|W )·P (W )

    P (A|W )·P (W )+P (A|N)·P (N) =(0.9)2·0.03

    (0.9)2·0.03+(0.05)2·0.97 = 0.909. Zatem, jeżelidwukrotnie zastosowany test dał wyniki pozytywne, to prawdopodobieństwo, że elementma wadę wynosi 0.909. Prawdopodobieństwo trafnej diagnozy znacznie wzrosło, gdy testprzeprowadzilśmy dwukrotnie! ťatwo policzyć, że prawdopodobieństwo zdarzenia ”elementma wadę, jeżeli test przeprowadzony trzykrotnie na tym elemencie dał za każdym razemwynik pozytywny” równe jest 0.994.

    • Przykład 2.7.Prawdopodobieństwo, że pogoda w danej miejscowości jest taka sama, jak dnia poprzed-niego równe jest a dla dnia deszczowego i b — dla dnia bezdeszczowego (a, b ∈ (0, 1)).Prawdopodobieństwo, że pierwszy dzień roku jest deszczowy równe jest p1. Obliczyć praw-dopodobieństwo pn, że n-ty dzień roku jest deszczowy.R o z w i ą z a n i e.Oznaczmy przez Dn zdarzenie ”n-ty dzień roku jest deszczowy”, a przez Bn zdarzenie”n-ty dzień roku jest bezdeszczowy”. Wówczas dla dowolnego n 1 mamy:P (Dn+1|Dn) = a, P (Bn+1|Bn) = b, P (Dn+1|Bn) = 1− b, P (Bn+1|Dn) = 1− a.

    Policzmy

    p2 = P (D2) = P (D2|D1) · p1 + P (D2|B1) · (1− p1) = ap1 + (1− b)(1− p1)= p1(a + b− 1) + 1− b,

    p3 = P (D3) = P (D3|D2) · p2 + P (D3|B2) · (1− p2) = ap2 + (1− b)(1− p2)= p1(a + b− 1)2 + (1− b)(a+ b− 1) + 1− b,

    p4 = P (D4) = P (D4|D3) · p3 + P (D4|B3) · (1− p3) = p3(a+ b− 1) + 1− b= p1(a + b− 1)3 + (1− b)(a+ b− 1)2 + (1− b)(a + b− 1) + 1− b,

    Posługując się zasadą indukcji matematycznej można pokazać, że

    pn = p1(a + b− 1)n−1 + (1− b)n−2∑

    k=0

    (a+ b− 1)k

    = p1(a + b− 1)n−1 + (1− b)1− (a+ b− 1)n−11− a− b+ 1

    =1− b)

    (1− a) + (1− b) + p1(a+ b− 1)n−1 − (1− b)(a+ b− 1)

    n−1

    (1− a) + (1− b) .

    Ponieważ a + b− 1 ∈ (0, 1), więc limn→∞(a + b− 1)n−1 = 0 i stąd lim

    n→∞pn = 1−b(1−a)+(1−b) .

    12

  • 2.3 Niezależność zdarzeń.

    • Definicja 2.3. Dwa zdarzenia A i B nazywamy niezależnymi, jeżeliP (A ∩B) = P (A) · P (B).

    Jeżeli P (B) > 0, to z niezależności zdarzeń A i B wynika, że P (A|B) = P (A), czyli, jaksię potocznie mówi, zajście zdarzenia B nie ma wpływu na prawdopodobieństwo zajściazdarzenia A. Oczywiście dla dowolnego A ∈F zdarzenia A i Ω są niezależne. Podobnie- zdarzenia A i ∅ są niezależne. Jeżeli zdarzenia A i B są rozłączne i mają niezeroweprawdopodobieństwa, to nie mogą być niezależne.

    Zdarzenia A1, A2, A3, . . . nazywamy rodziną zdarzeń niezależnych, jeżeli dla każdejskończonej ilości zdarzeń Ai1 , Ai2 , . . . , Ain zachodzi równość

    P (Ai1 ∩ · · · ∩ Ain) = P (Ai1) · · ·P (Ain). (11)

    • Fakt 2.4. Jeżeli zdarzenia A1, A2, . . . , An są niezależne, to niezależne są także zdarzeniaB1, B2, . . . , Bn, gdzie Bi = Ai lub Bi = A

    i dla i = 1, 2, . . . , n.

    • Przykład 2.8.Wyrazić prawdopodobieństwo sumy n niezależnych zdarzeń Ai, i = 1, 2, . . . , n za pomocąprawdopodobieństw poszczególnych składników.R o z w i ą z a n i e.Ponieważ

    n⋃

    i=1Ai = Ω \

    n⋂

    i=1A′i,

    więc korzystając z własności prawdopodobieństwa i z niezależności zdarzeń Ai, i =1, 2, . . . , n możemy napisać

    P

    (

    n⋃

    i=1Ai

    )

    = 1− P (n⋂

    i=1A′i) = 1−

    n∏

    i=1P (A′i) = 1−

    n∏

    i=1(1− P (Ai)).

    czyli

    P

    ( n⋃

    i=1

    Ai

    )

    = 1−n∏

    i=1

    (1− P (Ai)). (12)

    W tym momencie warto sobie przypomnieć, jak się oblicza prawdopodobieństwo sumyzdarzeń, o których nie wiadomo, czy są parami rozłączne (wzór ??). Widać, że, gdyzdarzenia Ai są niezależne, ten dość skomplikowany wzór można mocno uprościć.

    • Przykład 2.9.Trzech kontrolerów jakości pracuje niezależnie. Pierwszy wykrywa 90% wad, drugi - 80%a trzeci - 60%. Jaki procent wad wykrywają łącznie? Jaki procent wad wykrywa trzecikontroler a nie wykrywa pierwszy ani drugi?R o z w i ą z a n i e.Niech Ai oznacza zdarzenie ”wadę wykrył i-ty kontroler”. Wówczas:

    P (A1) = 910 , P (A2) =810, P (A3) = 610 ,

    Wada zostanie wykryta, gdy zajdzie zdarzenie A = A1 ∪ A2 ∪ A3. Wykorzystując wzórna prawdopodobieństwo zdarzenia przeciwnego oraz prawa de Morgana otrzymujemy

    13

  • P (A1 ∪ A2 ∪ A3) = 1− P (A′1 ∩ A′

    2 ∩ A′

    3).

    Ponieważ z niezależności zdarzeń A1, A2, A3 wynika niezależność zdarzeń A′

    1, A′

    2, A′

    3, więc

    P (A1 ∪A2 ∪A3) = 1− P (A′1)P (A′

    2)P (A′

    3) = 1− 0, 1 · 0, 2 · 0, 4 = 0, 992.Zatem łącznie kontrolerzy wykrywają 99, 2% wad.

    Zdarzenie ”spośród trzech kontrolerów wadę wykrył tylko trzeci kontroler” można zapisaćjako zdarzenie A

    1 ∩A′

    2 ∩A3. Ponieważ te trzy zdarzenia (tzn. A′

    1, A′

    2, A3) są niezależne,więc

    P (A′

    1 ∩ A′

    2 ∩ A3) = 0, 1 · 0, 2 · 0, 6 = 0, 012.

    • Przykład 2.10.Niezawodnością urządzenia nazywamy prawdopodobieństwo tego, że będzie ono praco-wać poprawnie przez czas nie mniejszy niż T. Obliczyć niezawodność urządzeń, którychschematy przedstawiają poniższe rysunki. Liczby p1, p2, . . . oznaczają niezawodności po-szczególnych, niezależnie pracujących elementów.

    a) p1 p2 pn

    b)

    p1

    p2

    pn

    c)

    p1

    p2

    p3 p4

    p5

    p6

    p7

    .R o z w i ą z a n i e.Niech Ai oznacza zdarzenie, że i-ty element pracuje poprawnie co najmniej przez czas T.Wtedy pi = P (Ai). Niech p oznacza niezawodność urządzenia.

    a) Urządzenie pracuje niezawodnie wtedy i tylko wtedy, gdy niezawodny jest każdy ele-ment, czyli, gdy zajdzie zdarzenie A1∩A2∩. . .∩An. Wykorzystując niezawodność zdarzeńAi otrzymujemy

    p = P (A1 ∩ A2 ∩ . . . ∩An) = p1 · p2 · . . . · pn.b) Urządzenie pracuje niezawodnie wtedy i tylko wtedy, gdy przynajmniej jeden elementjest niezawodny, czyli, gdy zajdzie zdarzenie A1 ∪A2 ∪ . . . ∪ An. Stąd

    p = P (A1 ∪A2 ∪ . . . ∪ An)

    i wykorzystując prawa de Morgana oraz niezależność tych zdarzeń, otrzymujemy

    p = 1− P (A′1 ∩A′

    2 ∩ . . . ∩ A′

    n) = 1− P (A′

    1) · P (A′

    2) · . . . · P (A′

    n) = 1−n∏

    i=1

    (1− pi)

    14

  • c) Urządzenie pracuje niezawodnie wtedy i tylko wtedy, gdy zajdzie zdarzenie A1 i zda-rzenie A2∪ (A3∩A4) i zdarzenie A5∪A6∪A7. Wykorzystując wzór na sumę zdarzeń orazich niezależność otrzymujemy

    p = P (A1) · P (A2 ∪ (A3 ∩ A4)) · P (A5 ∪ A6 ∪ A7)= p1(p2 + p3 · p4 − p2 · p3 · p4)(p5 + p6 + p7 − p5 · p6 − p6 · p7 − p5 · p7 + p5 · p6 · p7).

    • Przykład 2.11.Rozważamy rodziny posiadające n dzieci. Niech A oznacza zdarzenie, że rodzina ma dzie-ci obu płci, a B - rodzina ma przynajmniej jedną dziewczynkę. Czy zdarzenia A i B sąniezależne?R o z w i ą z a n i e.Przyjmując, że dzieci w rodzinie uporządkowane są np. według starszeństwa, oznaczmyprzez Ω zbiór ciągów n-elementowych o elementach 0 (dziewczynka) i 1 (chłopiec). Wów-czas

    Ω = 2n, A = 2n − 2, B = 2n − 1, A ∩B = 2n − 2.

    Zatem

    P (A ∩ B) = 2n−22n, a P (A) · P (B) = 2n−2

    2n· 2n−12n

    i równość nigdy nie zachodzi.

    • Przykład 2.12.Wkładamy losowo n ponumerowanych kul do n ponumerowanych szuflad. Jakie jest praw-dopodobieństwo pn, że przynajmniej jedna kula trafi do szuflady o tym samym numerze?Obliczyć lim

    n→∞pn.

    R o z w i ą z a n i e.Niech Ai oznacza zdarzenie ”i-ta kula wpadła do i-tej szuflady, i = 1, 2, . . . , n . Każdakula wpada niezależnie do każdej z szuflad z tym samym prawdopodobieństwem równym1n. Stąd, wykorzystując wzór 12, otrzymujemy

    pn = P (n⋃

    i=1Ai) = 1−

    (

    n−1n

    )n.

    Zatem limn→∞pn = 1− lim

    n→∞

    (

    n−1n

    )n= 1− e−1.

    3 Zmienne losowe jednowymiarowe.

    3.1 Definicja oraz rozkład i dystrybuanta zmiennej losowej.

    Matematyczny opis doświadczenia losowego wymaga sprecyzowania przestrzeni probabili-stycznej, z którą mamy do czynienia. Wprowadzimy teraz pojęcia, które pozwolą uprościći stworzyć jednolity opis doświadczenia losowego. Zacznijmy od przykładu.

    Badamy jakość czterech wyprodukowanych elementów. Każdy z nich może być dobry(oznaczmy to przez 1) lub wadliwy (oznaczmy to przez 0). Mamy wówczas

    Ω = {(ω1, ω2, ω3, ω4) : ωi ∈ {0, 1}, i = 1, 2, 3, 4}.

    15

  • F jest zbiorem wszystkich podzbiorów zbioru Ω. Faktycznie, najczęściej interesuje nastylko liczba elementów dobrych wśród sprawdzanych, czyli wynikowi (ω1, ω2, ω3, ω4) przy-pisujemy liczbę (ω1+ω2+ω3+ω4). Określamy zatem na Ω funkcję X o wartościach w IRwzorem

    X(ω1, ω2, ω3, ω4) = ω1 + ω2 + ω3 + ω4.

    Wartościami funkcji X jest jedna z liczb ze zbioru {0, 1, 2, 3, 4}.Zdarzenie {(ω1, ω2, ω3, ω4) : X(ω1, ω2, ω3, ω4) = k} oznaczamy krótko (X = k).

    • Definicja 3.1. Zmienna֒ losowa֒ nazywamy każdą funkcję X : Ω −→ IR taką, że dladowolnego a ∈ IR zbiór (X < a) = {ω ∈ Ω : X(ω) < a} jest zdarzeniem losowym, czyli{ω ∈ Ω : X(ω) < a} ∈F dla dowolnego a ∈ IR.

    W dalszym ciągu zapisujemy krótko

    {ω ∈Ω : X(ω) < a} = (X < a).

    Z własności rodziny F wynika, że zdarzeniami losowymi są też wszystkie zbiory postaci:(X ¬ a), (X > a), (X a), (a < X < b), (a < X ¬ b), (a ¬ X < b).

    Ze zmienną losową wiąże się pojęcie jej dystrybuanty.

    • Definicja 3.2. Dystrybuanta֒ zmiennej losowej X: Ω→ IR nazywamy funkcjęFX: IR→ [0, 1] określoną wzorem:

    FX(x) = P (X < x)

    • Twierdzenie 3.1. Funkcja F : IR −→ IR jest dystrybuantą pewnej zmiennej losowej wtedyi tylko wtedy, gdy :

    • F jest niemalejąca,

    • limx→−∞

    F (x) = 0, limx→+∞

    F (x) = 1.

    • F jest lewostronnie ciągła,

    Z dwu pierwszych warunków wynika, że dla każdego x ∈ IR prawdziwa jest nierówność

    0 ¬ F (x) ¬ 1.

    16

  • • Przykład 3.1.Czy można dobrać stałe a, b tak, by funkcja F (x) była dystrybuantą pewnej zmiennejlosowej?

    F (x) =

    aex gdy x ¬ −1,0, 5 gdy −1 < x ¬ 1,b(2− 1

    x) gdy x > 1.

    R o z w i ą z a n i e.

    Sprawdźmy, czy istnieją stałe a, b, dla których F (x) spełnia założenia twierdzenia 3.1.F (x) jest lewostronnie ciągła.limx→−∞

    aex = 0, więc a 0.limx→+∞

    b(2− 1x) = 2b = 1, więc b = 1

    2. Aby F (x) była niemalejąca musi zachodzić warunek

    ae−1 ¬ 12oraz b = 1

    2. Zatem dla każdej pary liczb (a, b), gdzie 0 ¬ a ¬ e

    2, b = 1

    2funkcja

    F (x) jest dystrybuantą pewnej zmiennej losowej. Tylko dla pary liczb ( e2, 12) F (x) jest

    ciągła na IR.

    Jeżeli potrafimy dla każdego podzbioru borelowskiego B określić prawdopodobieństwo,z jakim X przyjmuje wartości w zbiorze B, to mówimy, że został określony rozkładzmiennej losowej X:

    PX(B) = P ({ω : X(ω) ∈ B}).W dalszym ciągu oznaczamy krótko

    P (X ∈ B) = PX(B).

    Zauważmy, że rozkład zmiennej losowej spełnia aksjomaty prawdopodobieństwa.Rozkład zmiennej losowej jest jednoznacznie wyznaczony przez jej dystrybuantę, co jesttreścią następującego faktu.

    • Fakt 3.3. Prawdziwe są następujące równości:1. P (X a) = 1− FX(a),2. P (a ¬ X < b) = FX(b)− FX(a),3. P (X = a) = FX(a+)− FX(a)(stąd, jeżeli FX jest ciągła w punkcie a, to P (X = a) = 0),

    4. P (X ¬ a) = FX(a+),5. Jeżeli X jest typu ciągłego, to P (X = a) = 0 dla każdego a ∈ IR.

    Wyróżniamy dwa zasadnicze typy zmiennych losowych: zmienne losowe typu skokowego izmienne losowe typu ciągłego.

    • Definicja 3.4. Mówimy, że zmienna losowa X jest typu skokowego lub X jest zmien-na֒ dyskretna֒, jeżeli X przyjmuje skończenie lub co najwyżej przeliczalnie wiele wartościxi, i ∈ I przy czym P (X = xi) = pi > 0 oraz

    i ∈ I

    pi = 1.

    Rozkład prawdopodobieństwa zmiennej dyskretnej nazywa się często funkcją prawdo-podobieństwa i zapisuje w postaci

    {(xi, pi) : i ∈ I}

    17

  • Dystrybuanta FX : IR −→ [0, 1] zmiennej dyskretnej ma postać

    FX(x) = P (X < x) =∑

    {i:xi

  • • Przykład 3.3.W pewnym biurze zainstalowano 10 drukarek. Każda z drukarek pracuje niezależnie śred-nio przez 12 minut w ciągu jednej godziny.a) Jakie jest prawdopodobieństwo, że w losowo wybranej chwili będzie włączonych 7 dru-karek? co najmniej 7 drukarek?b) Jaka jest najbardziej prawdopodobna liczba drukarek włączonych w danej chwili?R o z w i ą z a n i e.Jeżeli drukarki pracują niezależnie średnio przez 12 minut w ciągu jednej godziny, tozmienna losowa X oznaczająca liczbę drukarek włączonych w danym momencie ma roz-kład Bernoulli’ego z parametrami n = 10, p = 12

    60= 15.

    Zatem prawdopodobieństwo, że w losowo wybranej chwili będzie włączonych 7 druka-rek wynosi P (X = 7) =

    (

    107

    ) (

    15

    )7 (45

    )3 ≈ 0.00079, a prawdopodobieństwo, że w losowowybranej chwili będzie włączonych co najmniej 7 drukarek równe jest

    P (X 7) =10∑

    k=7

    (

    10k

    ) (

    15

    )k (45

    )10−k ≈ 0, 00086.

    Zatem, jeżeli zasilanie drukarek ustalone jest na poziomie dla sześciu drukarek, to prawdo-podobieństwo przeciążenia (czyli P (X 7)) równe 0,00086. Czyli średnio przeciążenie mamiejsce w ciągu 86 minut na 100000 minut (1 minute na 1157 minut). Czy te rozważaniamogą pomóc w ustaleniu poziomu zasilania?

    • Przykład 3.4.Prawdopodobieństwo prawidłowo wykonanej czynności przez pracownika wynosi 0.99.a) Jakie jest prawdopodobieństwo, że wszystkie spośród 100 takich samych, niezależniewykonywanych, czynności zostaną wykonane prawidłowo?b) Jaka jest najbardziej prawdopodobna liczba czynności wykonanych prawidłowo?Rozważyć powyższe pytania, gdy czynność będzię powtarzana 199 razy.R o z w i ą z a n i e.a) Liczba prawidłowo wykonanych czynności wśród 100 niezależnych powtórzeń opisanejczynności jest zmienną losową o rozkładzie B(100, 0.99). Wszystkie czynności wykonaneprawidłowo opisuje zdarzenie (X = 100), więc

    P (X = 100) =(

    100100

    )

    (0.99)100(0.01)0 ≈ 0.3660.

    b) Ponieważ dla zmiennej losowej X liczba (n + 1)p = 101 · 0.99 = 99.99 nie jest całko-wita, więc najbardziej prawdopodobną wartością X jest część całkowita z tej liczby, czyli99. Zatem zmienna losowa z największym prawdopodobieństwem przyjmuje wartość 99 iprawdopodobieństwo to wynosi

    P (X = 99) =(

    10099

    )

    (0.99)99(0.01)1 ≈ 0.3697.Niech zmienna losowa Y określa liczbę czynności wykonanych prawidłowo przy 199 po-wtórzeniach. Y ma rozkład B(199, 0.99), więc

    P (X = 199) =(

    199199

    )

    (0.99)199(0.01)0 ≈ 0.1353.

    Dla zmiennej losowej Y liczba (n + 1)p = 200 · 0.99 = 198 jest całkowita, więc Y z naj-większym prawdopodobieństwem przyjmuje wartości 198 albo 197. Prawdopodobieństwoto wynosi

    P (X = 197) = P (Y = 198) = 0.2720.

    19

  • Widać, że nawet jeżeli prawdopodobieństwo sukcesu w jednej próbie jest bardzo duże,to prawdopodobieństwo samych sukcesów oraz największa wartość prawdopodobieństwamaleje dość szybko wraz ze wzrostem liczby powtórzeń.

    • Przykład 3.5.Co jest bardziej prawdopodobne: wygrać z równorzędnym przeciwnikiem nie mniej niż 3partie z 4 partii, czy nie mniej niż 5 partii z 8 partii?R o z w i ą z a n i e.Zmienna losowa X określająca liczbę wygranych spotkań w czterech partiach ma rozkładB(

    4, 12

    )

    , a zmienna losowa Y określająca liczbę wygranych spotkań w ośmiu partiach ma

    rozkład B(

    8, 12

    )

    . Otrzymujemy zatem

    P (X = 3) =(

    43

    )(

    12

    )3(12

    )1= 14, P (Y = 5) =

    (

    85

    )(

    12

    )5(12

    )3= 764.

    Zatem bardziej prawdopodobne jest wygranie dokładnie trzech spośród czterech partii.

    P (X 3) =(

    43

    )(

    12

    )3(12

    )1+(

    44

    )(

    12

    )4(12

    )0= 516,

    P (Y 5) =(

    85

    )(

    12

    )5(12

    )3+(

    86

    )(

    12

    )6(12

    )2+(

    87

    )(

    12

    )7(12

    )1+(

    88

    )(

    12

    )8(12

    )0= 1116,

    czyli bardziej prawdopodobne jest wygranie przynajmniej pięciu spośród ośmiu partii niżprzynajmniej trzech spośród czterech partii.

    • Rozkład Poissona z parametrem λ

    Można udowodnić, że prawdziwe jest następujące twierdzenie.

    • Twierdzenie 3.2. (Poissona)Jeżeli (Xn) jest ciągiem zmiennych losowych o rozkładzie dwumianowym B(n, pn), przyczym lim

    n→+∞npn = λ, to dla każdego k ∈ IN zachodzi równość

    limn→+∞

    (

    n

    k

    )

    pkn(1− pn)n−k = e−λλk

    k!.

    Mówimy, że zmienna losowa X ma rozkład Poissona z parametrem λ, λ > 0, jeżeli

    P (X = k) =λk

    k!e−λ. dla k = 0, 1, 2, . . . .

    Oczywiście łatwo sprawdzić, że P (X = k) 0 oraz∞∑

    k=0P (X = k) =

    ∞∑

    k=0

    λk

    k!e−λ = e−λ

    ∞∑

    k=0

    λk

    k!= e−λ · eλ = 1.

    Przybliżanie rozkładu Bernoulli’ego rozkładem Poissona jest stosowane w przypadku, gdyn jest duże (n 50) a p — małe tak, by np(1− p) ¬ 9.Najbardziej prawdopodobną wartością zmiennej lososwej o rozkładzie Poissona jest

    k0 =

    {

    λ lub λ− 1 gdy λ ∈ IN[λ] gdy λ ∈6 IN.

    20

  • • Przykład 3.6.Po mieście jeździ 1000 samochodów. Prawdopodobieństwo, że samochód ulegnie uszko-dzeniu w ciągu jednej doby równe jest p = 0, 002. Jakie jest prawdopodobieństwo, że conajmniej jeden samochód w ciągu doby ulegnie uszkodzeniu? Zakładamy, że samochodypsują się niezależnie. Jaka jest najbardziej prawdopodobna liczba uszkodzonych samocho-dów? Ile miejsc należy przygotować na stacjach obsługi,by z prawdopodobieństwem 0, 95było wolne miejsce dla uszkodzonego samochodu?R o z w i ą z a n i e.Oczywiście możemy tu skorzystać ze schematu Bernoulli’ego, czyliP (X 1) = 1−P (X = 0) = 1−

    (

    10000

    )

    (0.002)0(0.998)1000 ≈ 0.8649, jednak takie oblicze-nia są żmudne.Zgodnie z Twierdzeniem 3.2 (biorąc λ = 1000 · 0, 002 = 2) otrzymujemy

    P (X 1) = 1− P (X = 0) = 1− 200!e−2 ≈ 0.8647.

    Ponieważ (n + 1)p = 2.002 ∈6 IN, więc najbardziej prawdopodobną liczbą uszkodzonychsamochodów jest k0 = 2.

    Aby odpowiedzieć na ostatnie pytanie należy znaleźć takie l, gdzie l jest liczbą miejsc wstacji obsługi, że P (X ¬ l) 0, 95, czyli P (X > l) = P (X l + 1) < 0, 05.Posługując się tablicami rozkładu Poissona znajdujemy l + 1 6, czyli l 5.

    • Przykład 3.7.Wiadomo, że 1% produkowanych żarówek to braki. Obliczyć dokładnie i w przybliżeniu,prawdopodobieństwo, że:a) wśród losowo wybranych 100 żarówek nie ma ani jednej wybrakowanej,b) wśród losowo wybranych 100 żarówek są 2 wybrakowane,c) jaka jest minimalna liczba żarówek, które należy sprawdzić, by prawdopodobieństwoznalezienia złej żarówki było nie mniejsze niż 0,9.R o z w i ą z a n i e.Niech X oznacza liczbę wybrakowanych żarówek wśród 100 wylosowanych.a) P (X = 0) =

    (

    1000

    ) (

    1100

    )0 (99100

    )100 ≈ e−1 100!≈ 0, 368 (λ = 100 · 1

    100= 1

    b) P (X 2) = 1− P (X = 0)− P (X = 1) ≈ 0.2642c) Niech Y oznacza liczbę wybrakowanych żarówek wśród n wylosowanych. Y ma rozkładBernoulli’ego B(n, 1

    100). P (Y 1) = 1− P (Y = 0) 0, 9, więc P (Y = 0) ¬ 0, 1. Zatem

    szukamy n takiego, że P (Y = 0) =(

    n

    0

    ) (

    1100

    )0 (99100

    )n ¬ 0.1. Stąd n 230.

    • Przykład 3.8.Śrubki są pakowane w pudełka po 100 sztuk. Prawdopodobieństwo, że śrubka jest wy-brakowana wynosi 0,01. Ile sztuk należałoby dodać do każdego pudełka, aby w celachmarketingowych można było powiedzieć, że z prawdopodobieństwem nie mniejszym niż0,9 w każdym pudełku jest co najmniej 100 sztuk dobrych?R o z w i ą z a n i e.Niech X oznacza liczbę elementów wybrakowanych w pudełku. Zmienna losowa X marozkład Bernoulli’ego z parametrami n = 100, p = 0, 01. Zatem

    P (X = 0) =(

    1000

    )

    p0(1− p)100 ≈ 0, 366.

    21

  • Jeżeli rozkład zmiennej X przybliżymy rozkładem Poisoona z parametremλ = 100 · 0, 01 = 1, to

    P (X = 0) = e−1 ≈ 0, 367.

    Dodanie do pudełka kilku (k0) elementów tylko nieznacznie zmieni parametr λ (np. dlak0 = 2 jest λ = 1, 02 oraz P (X = 0) = e−1,02 ≈ 0, 36059). Korzystając z przybliżonegorozkładu zmiennej X szukajmy więc najmniejszej liczby k0, dla której

    P (X ¬ k0) ≈ e−λ(

    1 + λ1!+ λ

    2

    2!+ . . .+ λ

    k0

    (k0)!

    )

    0, 9.

    Przyjmując dla uproszczenia λ = 1 i korzystając z tablic rozkładu Poissona otrzymujemyk0 = 2, bo

    e−1(

    1 + 1 + 12

    )

    = 0, 9196.

    Dokładniej — dla λ = 1, 02 mamy

    P (X ¬ 2) = e−1,02(

    1 + 1,021!+ 1,022!

    )

    0, 9295.

    W rzeczywistości prawdopodobieństwo znalezienia co najmniej 100 sztuk dobrych w pu-dełku zawierającym 102 śruby (czyli dla X o rozkładzie Bernoulli’ego z parametramin = 102, p = 0, 01) wynosi

    P (X ¬ 2) = (0, 99)102 + (0, 99)101 · 0, 01 · 1, 02 + 102·1012· (0, 99)100 · (0, 01)2 ≈ 0, 9169.

    • Przykład 3.9.Liczba komputerów, które mogą być zarażone wirusem przez pewną sieć ma rozkład Po-issona z parametrem λ. W każdym zarażonym komputerze wirus niezależnie uaktywniasię z prawdopodobieństwem p. Jakie jest prawdopodobieństwo, że wirus uaktywni się wm komputerach?R o z w i ą z a n i e.Niech zmienna losowa X oznacza liczbę zarażonych komputerów. X ma rozkład Poissonaz parametrem λ. Ponieważ zdarzenia (X = k), k = 0, 1, 2, . . . są parami rozłączne oraz∞⋃

    k=0(X = k) = Ω i P (X = k) = e−λ λ

    k

    k!> 0, więc spełnione są założenia twierdzenia o

    prawdopodobieństwie całkowitym. Niech zmienna losowa Y oznacza liczbę komputerów,w których wirus uaktywni się. Mamy:

    P (Y = m) = P(

    (Y = m) ∩∞⋃

    k=0

    (X = k))

    = P( ∞⋃

    k=0

    ((Y = m) ∩ (X = k)))

    .

    Ponieważ zdarzenia (X = k), k = 0, 1, 2, . . . są parami rozłączne, więc zdarzenia (Y =m) ∩ (X = k), k = 0, 1, 2, . . . są też parami rozłączne. Ponadto dla k < m jest (Y =m)∩ (X = k) = ∅. Zatem, wykorzystując twierdzenie o prawdopodobieństwie całkowitymotrzymujemy

    P (Y = m) =∞∑

    k=0

    P ((Y = m) ∩ (X = k)) =∞∑

    k=m

    P (Y = m|X = k) · P (X = k)).

    Zdarzenie (Y = m|X = k) dla k m oznacza, że spośród k zarażonych komputerówwirus uaktywni się w m komputerach, w każdym z prawdopodobieństwem p (m sukcesóww k próbach), czyli

    22

  • P (Y = m|X = k) =(

    k

    m

    )

    pm(1− p)k−m.

    Podstawiając wartości prawdopodobieństw i dokonując elementarnych przekształceń, otrzy-mujemy

    P (Y =m) =∞∑

    k=0

    (

    k

    m

    )

    pm(1− p)k−m · e−λ λkk!

    = e−λ

    m!

    (

    p

    1−p

    )m ∞∑

    l=0

    ((1−p)λ)l+ml!

    = (pλ)m

    m!e−λp.

    • Rozkład geometryczny z parametrem p.

    Eksperyment ze zmienną losową o rozkładzie B(1, p) powtarzamy niezależnie dopóki po-jawi się sukces. Niech X oznacza numer próby, w której sukces pojawił się po raz pierwszy.Wówczas, kładąc q = 1− p otrzymujemy

    P (X = k) = pqk−1, dla k = 1, 2 . . .

    Mówimy, że zmienna losowa zdefiniowana wyżej ma rozkład geometryczny z parametremp. Prawdopodobieństwa zdarzeń (X = k) są wyrazami ciągu geometrycznego i sumują siędo 1:

    ∞∑

    k=0P (X = k) =

    ∞∑

    k=1pqk−1 = p

    ∞∑

    k=1qk−1 = p · 1

    1−q = 1.

    Zmienną o rozkładzie geometrycznym wygodnie jest interpretować jako czas oczekiwaniana pierwszy sukces, tzn. liczbę powtórzeń eksperymentu poprzedzających eksperyment,w którym po raz pierwszy otrzymaliśmy sukces.

    • Fakt 3.5. Jeżeli zmienna losowa X ma rozkład geometryczny, to dla dowolnych liczbnaturalnych n0, k zachodzi równość:

    P (X > n0 + k|X > n0) = P (X > k).

    O zmiennej losowej spełniającej warunek z Faktu 3.5 mówimy, że ma tzw. własnośćbraku pamięci. Ciekawszym jest fakt, że rozkład geometryczny jest jedynym rozkłademdyskretnym posiadającym własność braku pamięci.

    • Przykład 3.10.Prawdopodobieństwo, że danego dnia w miejscowości A latem świeci słońce jest stałe irówne p. Jakie jest prawdopodobieństwo, że jeszcze co najmniej przez 7 dni będzie pięknasłoneczna pogoda, jeżeli już od dwu tygodni świeci słońce?R o z w i ą z a n i e.Przy założeniu, że pogoda w danym dniu nie zależy od pogody w dniach poprzednich,zmienna losowa X określająca liczbę kolejnych słonecznych dni ma rozkład geometrycznyz parametrem p. Zatem

    P (X 21|X 14) = P (X > 20|X > 13) = P (X > 7) = (1− p)7.

    23

  • • Przykład 3.11.Główna wygrana w totolotku to prawidłowe skreślenie 6 liczb spśród 49. Jakie jest praw-dopodobieństwo głównej wygranej za 1001 razem, jeżeli przez 1000 razy nie było głównejwygranej?R o z w i ą z a n i e.Sześć liczb spośród 49-u można wybrać na

    (

    496

    )

    sposobów (uporządkowanie liczb nie jest

    istotne). Wygranej sprzyja tylko jeden spośrod(

    496

    )

    jednakowo prawdopodobnych sposo-bów, czyli prawdopodobieństwo głównej wygranej p równe jest

    p = 1(496 )= 113983816

    ,

    można powiedzieć, że jest bliskie jeden do czternastu milionów.Grę w ”Toto-lotka” powtarza się i w każdym powtórzeniu prawdopodobieństwo głównejwygranej równe jest wyżej obliczonemu p. Niech zmienne losowa X określa numer losowa-nia, w którym główna wygrana pojawi się po raz pierwszy. X ma rozkład geometryczny zparametrem p. Prawdopodobieństwo głównej wygranej za 1001 razem, jeżeli przez 1000 ra-zy nie było głównej wygranej to prawdopodobieństwo warunkowe P (X = 1001|X > 1000).Zatem

    P (X = 1001|X > 1000) = P (X=1001∩X>1000)P (X>1000)

    = P (X=1001)P (X>1000)

    .

    Ponieważ

    P (X > 1000) =∞∑

    k=1001P (X = k) =

    ∞∑

    k=1001qk−1p = q1000 · p

    1−q = q1000,

    więc

    P (X = 1001|X > 1000) = q1000·pq1000= p,

    czyli prawdopodobieństwo wygranej za 1001 razem, jeżeli nie wygraliśmy przez pierwsze1000 jest takie samo, jak prawdopodobieństwo wygranej za pierwszym razem. Na tympolega własność ”braku pamięci” rozkładu zmiennej losowej, a ma ją opisana zmiennalosowa X. Jeżeli wiemy, że zmienna losowa przyjęła wartość większą niż n, to wszystkienastępne wartości n+k są przyjmowane z takimi samymi prawdopodobieństwami, z jakimiprzyjmowane są wartości k. ”Przeszłość, jeżeli dotrwamy do chwili n, nie ma wpływu na”przyszłość”.

    • Rozkład Pascala z parametrami r,p.

    Eksperyment ze zmienną losową o rozkładzie B(1, p) powtarzamy niezależnie dopóki po-jawi się r sukcesów. Niech X oznacza numer próby, w której r-ty sukces pojawił się poraz pierwszy. Wówczas dla r 1, q = 1− p mamy

    P (X = k) =

    (

    k − 1r − 1

    )

    prqk−r, dla k = r, r + 1, . . . , gdzie r 1, 0 < p < 1.

    Mówimy, że zmienna losowa zdefiniowana wyżej ma rozkład Pascala z parametrami r, p.Zmienną o rozkładzie Pascala wygodnie jest interpretować jako czas oczekiwania na pierw-szy r-ty sukces.

    24

  • • Przykład 3.12.Na ulicy stoi sprzedawca gazet. Każdy z mijających go przechodniów kupuje gazetę zprawdopodobieństwem p = 1

    3. Niech X oznacza ilość ludzi mijających go do momentu,

    gdy sprzeda 100 gazet. Znaleźć rozkład zmiennej X.R o z w i ą z a n i e.X ma rozkład Pascala z parametrami r = 100, p = 1

    3,

    • Rozkład hipergeometryczny

    Z populacji składającej się z N elementów jednego rodzaju i M elementów drugiegorodzaju losujemy n elementów. Niech X oznacza liczbę elementów pierwszego rodzajuwśród wszystkich wylosowanych. Wówczas

    P (X = k) =

    (

    N

    k

    )(

    M

    n−k

    )

    (

    N+Mn

    ) , k = 0, 1, . . . , N.

    Mówimy, że wyżej zdefiniowana zmienna losowa ma rozkład hipergeometryczny z para-metrami N,M, n, n < N, n < M . Definicja jest poprawna, bo można sprawdzić, że

    N∑

    k=0P (X = k) =

    N∑

    k=0

    (Nk)( Mn−k)(N+Mn )

    = 1.

    Przybliżenie rozkładem Poissona możemy stosować również w przypadku, gdy zmiennalosowa ma rozkład hipergeometryczny, gdzie N +M jest duże a liczba N

    N+M· n mieści się

    w przedziale (0, 10).

    • Przykład 3.13.Zauważmy, że w Przykładzie 1.7 liczba ryb oznaczonych wśród 1000 wyłowionych (jeżeliw jeziorze jest N + 1000 ryb) jest zmienną losową o rozkładzie hipergeometrycznym zparametrami N,M = 1000, n = 1000.

    • Przykład 3.14.Spośród liczb 1, 2, . . . , 35 losujemy pięć liczb. Jakie jest prawdopodobienstwo, że będąwśród nich cztery mniejsze od 21? Jaka jest najbardziej prawdopodobna ilość liczb wylo-sowanych mniejszych od 21? Porównać wynik ze średnią z takich liczb.R o z w i ą z a n i e.W tym zadaniu mamy do czynienia ze zmienną losową (określającą ilość liczb mniej-szych od 21 wśród wszystkich wylosowanych) o rozkładzie hipergeometrycznym, gdzieN = 20,M = 15, n = 5, więc:

    P (X = 4) = (204 )(151 )(355 ).

    Warunek P (X = k) < P (X = k + 1) równoważny jest nierówności

    (20k )( 155−k)(355 )

    <( 20k+1)( 155−(k+1))(355 )

    ,

    której rozwiązanie daje k < 3.

    25

  • • Przykład 3.15.Pudełko kulek potrzebnych do zmontowania łożyska zawiera 10 sztuk o dodatniej odchył-ce od nominalnego wymiaru średnicy i 15 sztuk - o ujemnej odchyłce. Do zmontowaniałożyska potrzeba 6 kulek, z których co najwyżej 3 mogą mieć dodatnią odchyłkę od nomi-nalnego wymiaru średnicy. Jakie jest prawdopodobieństwo, że monterowi, który wybiera6 kulek losowo, uda się zmontować łożysko?R o z w i ą z a n i e.Niech X oznacza liczbę kulek wśród 6 wybranych o ddatniej odchyłce. Monterowi udasię zmontować łożysko, X ¬ 3. X ma rozkład hipergeometryczny z parametrami: N =10,M = 15, n = 6. Zatem P (X ¬) = 1− P (X = 4)− P (X = 5)− P (X = 6).

    • Rozkład wielomianowy

    Rozkład dwumianowy możemy uogólnić na przypadek n powtarzanych niezależnych eks-perymentów, z których każdy może mieć jeden z k (k 2) wyników. Niech pi oznaczaprawdopodobieństwo realizacji wyniku i-tego rodzaju w każdej próbie, pi ∈ (0, 1), i =1, 2, . . . , k, p1+ p2+ . . .+ pk = 1, zaś Xi niech oznacza liczbę wyników i-tego rodzaju wn powtórzeniach. Wówczas

    P (X1 = n1, X2 = n2, . . . , Xk = nk) =n!

    n1! · n2! · . . . · nk!pn11 · pn22 · . . . · pnkk ,

    gdzie ni, i = 1, 2, . . . , k są liczbami naturalnymi oraz n1 + n2 + . . .+ nk = n.

    • Przykład 3.16.Jakie jest prawdopodobieństwo, że w sześciocyfrowym kodzie wystąpią trzy zera, dwiepiątki i jedna ósemka?R o z w i ą z a n i e.Zmienne losowe Xi, gdzie i = 0, 1, 2, . . . , 9 oznaczają odpowiednio liczbę zer, jedynek, . . .,dziewiątek w sześciocyfrowym kodzie. pi jest prawdopodobieństwem wylosowania jednejz dziesięciu cyfr, czyli pi = 110 , i = 0, 1, 2, . . . , 9. Zatem

    P (X0 = 3, X5 = 2, X8 = 1, X1 = X2 = X3 = X4 = X6 = X7 = X9 = X0 = 0) =6!3!2!1!

    (

    110

    )3(110

    )2(110

    )1= 0.00006.

    • Przykład 3.17.Po wstępnej kontroli technicznej 70% wyrobów oceniono jako dobre, 5% - jako wadliwe,a 25% zdecydowano poddać dalszej kontroli. Jakie jest prawdopodobieństwo, że wśród 10wylosowanych wyrobów jest 7 dobrych, 2 – wadliwe i 1 należy poddać dalszej kontroli?R o z w i ą z a n i e.Niech zmienne losowe X1, X2, X3 określają odpowiednio liczbę wyrobów dobrych, wadli-wych i przeznaczonych do dalszej kontroli wśród 10 wylosowanych. Prawdopodobieństwadla poszczególnej jakości wyrobów wynoszą odpowiednio: p1 = 0.7, p2 = 0.05, p3 = 0.25.Zatem

    P (X1 = 7, X2 = 2, X3 = 1) = 10!7!2!1!(0.7)7 · (0.05)2 · (0.25)1 = 0.0185.

    W rozkładzie wielomianowym zmienna losowa Xi określa liczbę elementów i-tego rodzajuwśród n elementów, więc Xi ma rozkład dwumianowy B(n, pi). Zatem najbardziej praw-dopodobna liczba elementów przeznaczonych do dalszej kontroli spośród 10 wylosowanychto 2.

    26

  • 3.3 Zmienne losowe typu ciągłego

    • Definicja 3.6. Mówimy, że zmienna losowa X jest typu cia֒gl66 6 6 6 ego, jeżeli istnieje nieujemnafunkcja całkowalna fX : IR −→ IR taka, że:

    FX(x) =x∫

    −∞fX(t)dt dla każdego x ∈ IR.

    Funkcję fX nazywamy ge֒stościa֒ prawdopodobieństwa.

    Wiemy z analizy, że funkcja FX jest wówczas ciągła. Ponadto - jest ona różniczkowalnawe wszystkich punktach ciągłości funkcji fX i w punktach tych zachodzi równożć

    F′

    X(x) = fX(x).

    Nietrudno wykazać, że prawdziwa jest następująca charakteryzacja.

    • Twierdzenie 3.3. Funkcja f jest gęstością pewnej zmiennej losowej wtedy i tylko wtedy,gdy :

    • f(x) 0 dla każdego x ∈ IR,

    •+∞∫

    −∞f(x)dx = 1.

    • Przykład 3.18.Czy istnieje stała c, dla której podana funkcja jest funkcją gęstości:

    f(x) =

    0, gdy x ¬ 0,c, gdy 0 < x ¬ 1cx2, gdy x > 1

    Wykorzystamy twierdzenie 3.3. Dla funkcji f(x) mamy c 0 oraz∫ 0

    −∞0dx+

    ∫ 1

    0cdx+

    ∫ ∞

    1

    c

    x2dx = 2c = 1

    zatem dla c = 12funkcja f(x) jest gęstością pewnej zmiennej losowej Y . Jej dystrybuanta

    ma postać

    F (x) =

    0, gdy x ¬ 0,12x, gdy 0 < x ¬ 1,

    1− 12x, gdy x > 1.

    Obliczmy, dla zmiennej losowej Y prawdopodobieństwo zdarzeń:

    P (−2 < X < 1) = F (1)− F (−2) =∫ 1

    0

    12dx =

    12,

    P (0 < X < 4) = F (4)− F (0) =∫ 1

    0

    12dx+

    ∫ 4

    1

    12x2=78,

    P (X > 2) = 1− F (2) =∫ ∞

    2

    12x2dx =

    14.

    27

  • • Przykład 3.19.Dzienne zużycie energii (100 kWh =1) pewnej firmy jest zmienną losową X o gęstości:

    fX(x) =

    {

    19(3 + 2x− x2) dla 0 ¬ x ¬ 3,0 dla x < 0 lub x > 3.

    Jakie jest prawdopodobieństwo zdarzeń: (X > 12), (1 < X < 2)?

    R o z w i ą z a n i e.

    FX(x) =

    0 dla x ¬ 0,x∫

    0f(t)dt = 1

    3x+ 1

    9x2 − 1

    27x3 − 11

    27dla 0 < x ¬ 3,

    1 dla x > 3

    P (X > 12) = 1− FX(12) = 4163 , P (1 < X < 2) = FX(2)− FX(1) = 1127 .

    3.4 Najważniejsze rozkłady ciągłe

    • Rozkład jednostajny na odcinku [a,b]:

    Zmienna losowa X ma rozkład jednostajny na odcinku [a, b], jeżeli jej gęstość jest postaci

    fX(x) =

    {

    1b−a dla x ∈ [a, b],0 dla x ∈ IR \ [a, b]

    Wówczas

    FX(t) =

    0 gdy t ¬ a,t−ab−a gdy t ∈ (a, b],1 gdy t > b.

    x

    y

    O 2

    12

    Rys. 1.03.

    Gęstość rozkładu jednostajnego

    na przedziale [0,2]

    x

    y

    O 2

    12

    Rys. 1.03.

    Dystrybuanta rozkładu jednostajnego

    na przedziale [0,2]

    • Przykład 3.20.Z przystanku autobusy odjeżdżają co 10 minut. Zakładamy, że rozkład T czasu przybyciapasażera na przystanek jest zmienną losową o rozkładzie jednostajnym. Obliczyć praw-dopodobieństwo, że pasażer będzie czekał co najmniej 4 minuty, mniej niż 3 minuty.R o z w i ą z a n i e.

    fT (x) =

    {

    110dla x ∈ [0, 10],

    0 dla x ∈ IR \ [0, 10] FT (t) =

    0 gdy t ¬ 0,t10gdy t ∈ (0, 10],

    1 gdy t > 10.

    28

  • ZatemP (T < 3) = FT (3) =

    310.

    orazP (T 4) = 1− P (T < 4) = 1− FT (4) =

    610.

    • Przykład 3.21.Automat produkuje kulki metalowe o średnicy X będącej zmienną losową o gęstości

    fX(x) =

    {

    5 dla x ∈ [0.4, 0.6],0 dla x ∈ IR \ [0.4, 0.6]

    Za zgodne z normą uznaje się kulki o średnicy z przedziału [0.41, 0.59]. Obliczyć praw-dopodobieństwo, że wybrana losowo z produkcji kulka spełnia wymagania normy. Jakajest najbardziej prawdopodobna liczba kulek spełniających wymagania normy wśród 1000kulek.R o z w i ą z a n i e.P (0.41 < X < 0.59) = 0.18

    0.20= 0.9. Liczba Y kulek spełniających wymagania nor-

    my wśród 1000 kulek ma rozkład B(1000, 0.9), więc najbardziej prawdopodobna wartośćzmiennej Y wynosi [1001 · 0.9] = 900.

    • Rozkład wykładniczy z parametrem λ

    Zmienna losowa X ma rozkład wykładniczy z parametrem λ, λ > 0, jeżeli jej gęstość mapostać

    fX(x) =

    {

    0 dla x ¬ 0,λe−λx dla x > 0.

    3

    −2 −1 0 1 2

    1

    2

    3 4

    Rys. 1.04.

    Gęstość rozkładu wykładniczego dla λ = 1

    Wówczas dystrybuanta jest postaci

    FX(x) = =

    {

    0 dla x ¬ 0,1− e−λx dla x > 0

    Rozkład wykładniczy posiada ”własność braku pamięci” przez co rozumiemy, że dladowolnych nieujemnych x, s zachodzi równość:

    P (X > x+ s|X > s) = P (X > x).

    Można także wykazać, że rozkład wykładniczy jest jedynym rozkładem ciągłymposiadającym własność ”braku pamięci”.

    29

  • • Przykład 3.22.Czas pracy pewnego urządzenia jest zmienną losową X o rozkładzie wykładniczym zparametrem α = 10−4. Wiadomo, że urządzenie pracowało 1000h. Jakie jest prawdopo-dobieństwo, że popracuje co najmniej 6000h?R o z w i ą z a n i e.Wykorzystując własność braku pamięci otrzymujemy

    P (X 6000|X > 1000) = P (X 5000+1000|X > 1000) = P (X 5000) = 1−FX(5000) = e−0.5.

    • Rozkład normalny z parametrami m, σ.

    Zmienna losowa X ma rozkład normalny z parametrami m, σ (m, ∈ IR, σ > 0), jeżelijej gęstość ma postać

    fX(x) =1σ√2πe−(x−m)2

    2σ2 .

    Wiemy już, że∞∫

    −∞fX(x)dx = 1.

    Rozkład ten oznaczać będziemy symbolem N(m, σ).

    Rozkład normalny jest najważniejszym rozkładem w teorii prawdopodobieństwa. Zostałwprowadzony w XVIIIw. przez Gaussa i Laplace’a Rozkład normalny, co niedługo przed-stawimy, stanowi dobre przybliżenie sum niezależnych zmiennych losowych. Z tego wzglę-du jest wykorzystywany do opisu losowych błędów pomiarów. Jeżeli błąd pomiaru nie-znanej wielkości jest sumą wielu małych losowych błędów dodatnich i ujemnych, to sumatych błędów ma rozkład bliski rozkładowi normalnemu.

    Dystrybuanty rozkładu normalnego N(m, σ) , czyli funkcji

    FX(x) =1σ√2π

    ∫ x

    −∞e−(t−m)2

    2σ2 dt.

    nie można wyrazić przez funkcje elementarne. Wartości dystrybuanty rozkładu N(0, 1),czyli funkcji

    Φ(x) =1√2π

    ∫ x

    −∞e−t2

    2 dt.

    podane są w tablicach.

    Wykres gęstości rozkładu N(0, 1) jest następujący

    30

  • Rys. 1.04.

    Gęstość rozkładu N(0,1)

    Z symetrii wykresu gęstości względem osi Oy otrzymujemy wygodną w obliczeniach rów-ność:

    ΦX(−x) = 1− ΦX(x).

    Okazuje się, że wartości dystrybuanty dowolnego rozkładu N(m, σ) można obliczyć,znając wartości funkcji Φ(x).

    • Fakt 3.7. Jeżeli X ma rozkład N(m, σ), to zmienna losowa Y = X −mσ

    ma rozkład

    N(0, 1) oraz

    FX(x) = Φ(

    x−mσ

    )

    .

    Ostatni Fakt daje następujący, często wykorzystywany wzór

    P (a < X < b) = Φ

    (

    b−mσ

    )

    − Φ(

    a−mσ

    )

    .

    Korzystając ze standaryzacji i z tablic rozkładu N(0, 1) łatwo sprawdzić, że gdy X marozkład N(m, σ), to

    P (m− 3σ < X < m+ 3σ) = P(

    −3 < X−mσ< 3

    )

    = 2Φ(3)− 1 = 2 · 0.9987− 1 0.997.Oznacza to, że wartości zmiennej X z prawdopodobieństwem bliskim 1 zawarte są wprzedziale (m− 3σ,m+ 3σ). Własność tę nazywamy ”prawem trzech sigm”.

    • Przykład 3.23.Średnica metalowych kulek produkowanych przez automat jest zmienną losową X o roz-kładzie N(0.5, 0.04). Za zgodne z normą uznaje się kulki o średnicy z przedziału [0.41,0.59]. Obliczyć prawdopodobieństwo, że wybrana losowo z produkcji kulka spełnia wyma-gania normy. Jaka jest najbardziej prawdopodobna liczba kulek spełniajacych wymaganianormy wśród 1000 kulek?R o z w i ą z a n i eSzukane prawdopodobieństwo obliczymy dokonując standaryzacji zmiennej losowejX orazwykorzystamy tablice rozkładu N(0, 1)

    P (0.41 < X < 0.59) = P (0.41− 0.50.04

    <X − 0.50.04

    <0.59− 0.50.04

    ) =

    Φ(2.25)− Φ(−2.25) = 2Φ(2.25)− 1 = 0.9756Zmienna losowa Y określająca liczbę kulek spełniających wymagania normy, wśród 1000kulek wyprodukowanych ma rozkład B(1000, 0.9756) i jej wartością najbardziej prawdo-podobną jest [1001 · 0, 9756] = 976.Zauważmy, że obliczane w przykładzie wielkości są większe niż analogiczne wielkości dlazmiennej losowej opisanej w Przykładzie 3.20.

    31

  • • Przykład 3.24.Czas sprawnej pracy drukarek pewnego typu (w dniach) ma rozkład N(1000,80).Jakipowinien być okres gwarancji, aby na 90% drukarka działała przynajmniej przez okresgwarancji ?R o z w i ą z a n i eOznaczmy przez X czas sprawnej pracy drukarki, zaś przez T nieznany okres gwaran-cji.Zdarzenie (X > T ) ma zachodzić z prawdopodobieństwem co najmniej 0.9, czyliP (X > T ) 0.9, ale

    P (X > T ) = P (X − 100080

    >T − 100080

    ) = 1− Φ(T − 100080

    ) = Φ(−T − 100080

    ).

    Szukamy T , dla którego

    Φ(−T − 100080

    ) 0.9.

    Z tablic rozkładu N(0, 1) odczytujemy, że −T−100080> 1.29. Ponieważ funkcja Φ(x) jest ro-

    snąca, więc T < 897.6. Zatem szukany okres gwarancji powinien mieć co najwyżej 897 dni.

    • Rozkład gamma z parametrami a, b > 0)

    Zmienna losowa X ma rozkład gamma z parametrami a, b > 0, jeżeli jej gęstość ma postać

    γa,b(x) =

    0 dla x ¬ 0,ba

    Γ(a)xa−1e−bx dla x > 0.

    gdzie Γ(a) (tzw. funkcja gamma) zdefiniowana jest dla a > 0 za pomocą całki niewła-ściwej

    Γ(a) =∞∫

    0

    ta−1e−tdt.

    Całkowanie przez części daje wzór rekurencyjny

    Γ(a) = (a− 1)Γ(a− 1) dla a > 1,

    więc dla a = n ∈ IN otrzymujemy

    Γ(n) = (n− 1)!

    Dla naturalnych a = n rozkład gamma jest rozkładem sumy n niezależnych zmiennychlosowych o rozkładzie wykładniczym z parametrem b.

    • Rozkład Cauchy’ego z parametrem λ

    Zmienna losowa X ma rozkład Cauchy’ego z parametrem λ, λ > 0, jeżeli jej gęstość jestpostaci

    fX(x) =λ

    π(λ2 + x2).

    WówczasFX(x) =

    (

    arc tgx

    λ+π

    2

    )

    .

    32

  • 3.5 Funkcje zmiennych losowych

    Jeżeli g jest w miarę porządną (np. posiadającą co najwyżej przeliczalnie wiele punktównieciągłości), funkcją zmiennej rzeczywistej, to dla dowolnej zmiennej losowej X : Ω −→ IRfunkcja g ◦X = g(X) : Ω −→ IR też jest zmienną losową. Mamy bowiem:(g ◦X)−1((−∞, a)) = X−1(g−1(−∞, a)) ∈ F .Dla zmiennej losowej X w pewnych przypadkach rozkład zmiennej losowej g(X), gdzie gjest funkcją zmiennej rzeczywistej można łatwo wyznaczyć. Jeżeli g jest ściśle rosnąca, todystrybuantę zmiennej Y = g ◦X można wyznaczyć za pomocą dystrybuanty zmiennejX w następujący sposób:

    FY (x) = P (Y < x) = P (g(X) < x) = P (X < g−1(x)) = FX(g−1(x)).

    • Przykład 3.25.Miesięczny koszt prowadzenia przyzakładowego laboratorium jest zależny od liczby xzatrudnionych w nim pracowników zgodnie ze wzorem y = 15000x + 10000

    √x. Koszty

    te traktujemy jako zmienną losową. Wyznaczyć funkcję prawdopodobieństwa zmiennejY = 15000X + 10000

    √X, przyjmując następujący rozkład zmiennej losowej X:

    xi 2 3 4 5pi 0, 1 0, 25 0, 40 0, 25

    R o z w i ą z a n i e.

    Punkty skokowe yi zmiennej Y są postaci yi = 15000xi+10000√xi, co dla xi ∈ {2, 3, 4, 5}

    daje yi ∈ {44142, 62321, 8000, 97361}. Ponieważ g jest różnowartościowa,więc P (Y = yi) = P (X = xi) = pi czyli otrzymujemy

    yi 44142 62321 80000 97361pi 0, 1 0, 25 0, 40 0, 25

    • Przykład 3.26.W ustalonym punkcie płaskiej folii znajduje się źródło promieniowania radioaktywnegowysyłające promienie równomiernie we wszystkich kierunkach. W odległości 1 od foliiznajduje się równoległy do niej ekran, na którym obserwuje się błyski spowodowane pro-mieniowaniem. Niech X będzie zmienną losową oznaczjącą współrzędną punktu obserwo-wanego na ekranie. Korzystając z założenia, że kąt φ(t) jest wartością zmiennej losowej Φo rozkładzie jednostajnym na (0, π) wyznaczyć jej gęstość i dystrybuantę zmiennej losowejX Naszkicować obydwie funkcje.R o z w i ą z a n i e.Spójrzmy na rysunek.

    33

  • x

    y

    O

    1(u,1)

    αt

    Rys. 1.03.

    Niech (u, 1) będzie punktem, wktórym umieszczone jest źródłopromieniowania. Promienie wysy-łane są równomiernie we wszyst-kich kierunkach oznacza, że kątφt = π2 + αt, gdzie tgαt =

    t−u1,

    jest wartością zmiennej losowej orozkładzie jednostajnym na [0, π].

    StądFX(t) = P (X < t) = P (Φ < φt) = P

    (

    Φ < π2+ arctg(t− u)

    )

    = 1π

    [

    π2+ arctg(t− u)

    ]

    = 12+ 1πarctg(t− u), więc fX(t) = F ′X(t) = 1π 11+(t−u)2 .

    Otrzymaliśmy zatem ”przesunięty” rozkład Cauchy’ego. Jeżeli źródło promieniowaniaznajduje się w punkcie (0, 1) to mamy zdefiniowany wyżej rozkład Cauchy’ego.

    • Definicja 3.8. Zmienne losowe X1, X2, . . . , Xn nazywają się niezależne, jeżeli dla do-wolnych t1, t2, . . . , tn ∈ IR zachodzi równość

    P (X1 < t1, X2 < t2, . . . , Xn < tn) =n∏

    i=1

    P (Xi < ti)

    • Przykład 3.27.Czas oczekiwania na połączenie w centrali telefonicznej dla każdego abonenta jest zmien-ną losową X o rozkładzie wykładniczym z parametrem λ = 0, 2s. Z centrali korzystajednocześnie i niezależnie 100 abonentów. Obliczyć prawdopodobieństwo, że najkrótszy zczasów oczekiwania jest większy niż 5s a najdłuższy - mniejszy niż 10s.R o z w i ą z a n i e.Niech Xi będzie czasem oczekiwania na połączenie i-tego abonenta,X1, X2, ...X100 są zmiennymi losowymi niezależnymi.

    X = max{X1, X2, ...X100}, Y = min{X1, X2, ...X100},

    Ponieważ(X < x) ⇐⇒ ∀ 1¬k¬100 (Xk < x),

    oraz(Y > x) ⇐⇒ ∀ 1¬k¬100 (Xk > x),

    więcFX(x) = P (X < x) = P (X1 < x,X2 < x, . . . , X100 < x)

    = P (X1 < x)P (X2 < x) · . . . · P (X100 < x) = (F (x))100oraz

    FY (x) = P (Y < x) = 1− P (Y x) = 1− (1− F (x))100

    34

  • Dla zmiennych Xk o jednakowym rozkładzie wykładniczym otrzymujemy

    FX(x) =

    {

    0 dla x ¬ 0,(1− e−λx)100 dla x > 0. oraz FY (x) =

    {

    0 dla x ¬ 0,1− e−λ100x dla x > 0.

    Zatem; P (Y > 5) = e−20, P (X < 10) = (1− e−2)100.

    3.6 Parametry rozkładu zmiennej losowej

    W praktyce istnieje potrzeba opisania zmiennej losowej przez podanie pewnych charakte-ryzujących ją liczb, zwanych parametrami rozkładu zmiennej losowej.

    Omówimy teraz najczęściej wykorzystywane parametry rozkładu zmiennej losowej.

    3.6.1 Wartość oczekiwana zmiennej losowej.

    • Definicja 3.9. Wartościa֒ oczekiwana֒ zmiennej losowej dyskretnej o rozkładzie{(xi, pi) : i ∈ I} nazywamy liczbę EX określoną wzorem:

    EX =∑

    i∈Ixipi,

    przy założeniu, że suma∑

    i∈I|xi|pi jest skończona.

    Wartościa֒ oczekiwana֒ zmiennej losowej cia֒gl66 6 6 6 ej o gęstości f(x) nazywamy liczbę EX okre-śloną wzorem:

    EX =+∞∫

    −∞xf(x)dx,

    przy założeniu, że całka+∞∫

    −∞|x|f(x)dx jest skończona.

    Zauważmy, że wartość oczekiwana zmiennej losowej X jest odpowiednikiem znanego zfizyki pojęcia środka masy. W przypadku zmiennej dyskretnej prawdopodobieństwa piinterpretujemy jako masy skupione w punktach xi, a przyjęty układ jednostek jest taki,że masa całkowita równa jest 1. W przypadku zmiennej ciągłej f(x) jest gęstością masy.

    Wprost z definicji (z własności szeregów i całek niewłaściwych zbieżnych) wynikają na-stępujące własności wartości oczekiwanej:

    35

  • • Fakt 3.10. (Własności wartości oczekiwanej)1. E(aX + c) = aE(X) + c, dla a, c ∈ IR;

    2. Jeżeli P (X = c) = 1, to EX = c. W szczególności E(EX) = EX ;

    3. |EX| ¬ E(|X|);

    4. Jeżeli P (X 0) = 1 , to EX 0;

    5. Jeżeli Y = g(X), to EY =∑

    i g(xi)pi w przypadku zmiennej dyskretnej oraz

    EY =+∞∫

    −∞g(x)f(x)dx w przypadku zmiennej z gęstością f(x), o ile powyższy szereg

    i całka są zbieżne bezwzględnie;

    6. E(X + Y ) = EX + EY ;

    7. Jeżeli X, Y są niezależne, to E(XY ) = EX · EY .

    3.6.2 Wariancja zmiennej losowej.

    • Definicja 3.11. Wariancja֒ zmiennej losowej nazywamy liczbę zdefiniowaną wzoremVarX = E(X − EX)2

    Pierwiastek z wariancji, czyli D(X) =√VarX nazywamy odchyleniem standardo-

    wym albo dyspersją zmiennej losowej X, a wariancję oznaczamy często także sym-bolem D2(X). Wariancja pozwala ocenić, jak bardzo wartości zmiennej losowej różnią sięod wartości oczekiwanej. Zaliczamy ją do grupy tzw. parametrów rozproszenia. Inter-pretując rozkład prawdopodobieästwa jako rozkład masy jednostkowej (podobnie, jak wprzypadku wartości oczekiwanej) widzimy, że wariancja jest odpowiednikiem występują-cego w fizyce pojęcia momentu bezwładności względem środka masy.

    • Fakt 3.12. Prawdziwa jest następująca równośćVarX = EX2 − (EX)2.

    • Fakt 3.13. (Własności wariancji)1. VarX 0,

    2. VarX = 0 wtedy i tylko wtedy, gdy P (X = c) = 1 dla pewnej stałej c.

    3. Var(aX) = a2VarX,

    4. Var(X + c) = VarX,

    5. Jeżeli zmienne losowe X, Y są niezależne, to Var(X + Y ) = VarX + VarY.

    Oczywiste jest uogólnienie dwu ostatnich własności Faktu 3.10 i ostatniej własności Faktu3.13 na przypadek dowolnej skończonej ilości zmiennych losowych.

    36

  • Tabela wartości oczekiwanych i wariancji

    rozkład X EX VarXdwumianowy B(n, p) np np(1− p)Poissona z parametrem λ λ λgeometryczny z parametrem p p−1 (1− p)p−2Pascala z parametrami r,p rp−1 r(1− p)p−2hipergeometryczny p = N(N +M)−1 np np(1− p)jednostajny na [a, b] 1

    2(a+ b) 1

    12(b− a)2

    wykładniczy z parametrem λ λ−1 λ−2

    normalny N(m, σ) m σ2

    gamma z parametrami a, b ab−1 ab−2

    • Przykład 3.28.Obliczyć wartość oczekiwaną i wariancję dla zmiennych losowych o następujących rozkła-dach:a) P (X = 49) = P (X = 51) = 1

    2;

    b) P (Y = −100) = 14, P (Y = 100) = 3

    4;

    c) P (Z = 100) = P (Z = 0) = 14, P (Z = 50) = 1

    2.

    R o z w i ą z a n i e.Opisane zmienne losowe są typu dyskretnego, więc:

    EX=49 · 12+51 · 1

    2= 50, EY =−100 · 1

    4+100 · 3

    4= 50, EZ=100 · 1

    4+50 · 1

    2+0 · 1

    4= 50.

    Te trzy zmienne losowe mają taką samą wartość oczekiwaną. Zwróćmy uwagę, że wartośćoczekiwana zmiennej losowej zależy nie tylko od wartości, jakie ta zmienna losowa przyj-muje ale też od prawdopodobieństwa, z jakimi te wartości są przyjmowane.

    Wariancje tych zmiennych są następujące:

    VarX = (49− 50)2 · 12+ (51− 50)2 · 1

    2= 1,

    VarY = (−100− 50)2 · 14+ (100− 50)2 · 3

    4= 7500,

    VarZ = (100− 50)2 · 14+ (50− 50)2 · 1

    2+ (0− 50)2 · 1

    4= 1250,

    Znajomość wariancji poprawia charakteryzację zmiennej losowej. Jeżeli wartości zmiennejlosowej są odległe od wartości oczekiwanej, to wariancja jest duża. Mała wartość wariancjimówi, że wartości zmiennej losowej są bliskie jej wartości oczekiwanej. Zauważmy, żedla zmiennych losowych przyjmujących skończenie wiele wartoś