PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf ·...

110
1 Marek Cieciura, Janusz Zacharski PODSTAWY PROBABILISTYKI Z PRZYKLADAMI ZASTOSOWAŃ W INFORMATYCE CZĘŚĆ III RACHUNEK PRAWDOPODOBIEŃSTWA Na prawach rękopisu Warszawa, wrzesień 2011

Transcript of PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf ·...

Page 1: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

1

Marek Cieciura, Janusz Zacharski

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ

W INFORMATYCE

CZĘŚĆ III

RACHUNEK PRAWDOPODOBIEŃSTWA

Na prawach rękopisu

Warszawa, wrzesień 2011

Page 2: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

2

Statystyka jest bardziej sposobem myślenia lub wnioskowania niŜ pęczkiem recept na młócenie

danych w celu odsłonięcia odpowiedzi - Calyampudi Radhakrishna Rao

Podręcznik:

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ

W INFORMATYCE

publikowany jest w częściach podanych poniŜej

Nr Tytuł

I. Wprowadzenie

II. Statystyka opisowa

III. Rachunek prawdopodobieństwa

IV. Statystyka matematyczna

V. Przykłady zastosowań w informatyce

VI. Wybrane twierdzenia z dowodami

VII. Tablice statystyczne

Autorzy proszą o przesyłanie wszelkich uwagi i propozycji dotyczących zawartości podręcznika z wykorzystaniem formularza kontaktowego zamieszczonego w portalu http://cieciura.net/mp/

Publikowane części będą na bieŜąco poprawiane, w kaŜdej będzie podawana data ostatniej aktualizacji.

Podręcznik udostępnia się na warunku licencji Creative Commons (CC): Uznanie Autorstwa –

UŜycie Niekomercyjne – Bez Utworów ZaleŜnych (CC-BY-NC-ND),co oznacza:

• Uznanie Autorstwa (ang. Attribution - BY): zezwala się na kopiowanie, dystrybucję, wyświetlanie i uŜytkowanie dzieła i wszelkich jego pochodnych pod warunkiem umieszczenia informacji o twórcy.

• UŜycie Niekomercyjne (ang. Noncommercial - NC): zezwala się na kopiowanie, dystrybucję, wyświetlanie i uŜytkowanie dzieła i wszelkich jego pochodnych tylko w celach niekomercyjnych..

• Bez Utworów ZaleŜnych (ang. No Derivative Works - ND): zezwala się na kopiowanie, dystrybucję, wyświetlanie tylko dokładnych (dosłownych) kopii dzieła, niedozwolone jest jego zmienianie i tworzenie na jego bazie pochodnych.

Podręcznik i skorelowany z nim portal, są w pełni i powszechnie dostępne, stanowią więc Otwarte Zasoby Edukacyjne - OZE (ang. Open Educational Resources – OER).

Page 3: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

3

SPIS TREŚCI

5. ZDARZENIA LOSOWE I PRAWDOPODOBIEŃSTWO ..................................................... 5

5.1. UWAGI WSTĘPNE ................................................................................................................... 5 5.2. ZDARZENIA LOSOWE.............................................................................................................. 5 5.3. RELACJE MIĘDZY ZDARZENIAMI ............................................................................................. 6 5.4. DEFINICJE PRAWDOPODOBIEŃSTWA ....................................................................................... 9

5.4.1. Klasyczna definicja prawdopodobieństwa...................................................................... 9 5.4.2. Geometryczna definicja prawdopodobieństwa ............................................................... 9 5.4.3. Statystyczna definicja prawdopodobieństwa................................................................. 10 5.4.4. Aksjomatyczna definicja prawdopodobieństwa ............................................................ 11

5.7. PRAWDOPODOBIEŃSTWO WARUNKOWE ................................................................................ 12 5.8. PRAWDOPODOBIEŃSTWO CAŁKOWITE I TWIERDZENIE BAYESA .............................................. 13 5.9. ZDARZENIA NIEZALEśNE...................................................................................................... 15

6. ZMIENNE LOSOWE ............................................................................................................. 19

6.1. ZMIENNE LOSOWE JEDNOWYMIAROWE ................................................................................. 19 6.1.1. Pojęcie zmiennej losowej ............................................................................................. 19 6.1.2. Zbiory przeliczalne i nieprzeliczalne ............................................................................ 21 6.1.3. Zmienne losowe skokowe ............................................................................................. 21 6.1.4. Dystrybuanta ............................................................................................................... 23 6.1.5. Zmienne losowe ciągłe................................................................................................. 26

6.2. ZMIENNE LOSOWE DWUWYMIAROWE ................................................................................... 29 6.2.1. Pojęcie zmiennej losowej dwuwymiarowej ................................................................... 29 6.2.2. Dystrybuanta zmiennej losowej dwuwymiarowej.......................................................... 31 6.2.3. Zmienne losowe dwuwymiarowe skokowe .................................................................... 31 6.2.4. Zmienne losowe dwuwymiarowe ciągłe........................................................................ 32 5.2.5. Rozkłady brzegowe ...................................................................................................... 34 6.2.6. Rozkłady warunkowe ................................................................................................... 39 6.2.7. Zmienne losowe niezaleŜne .......................................................................................... 42

7. PARAMETRY ROZKŁADU ZMIENNYCH LOSOWYCH................................................ 44

7.1. MIARY POŁOśENIA ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ ................................................ 44 7.1.1. Wartość oczekiwana .................................................................................................... 44 7.1.2. Mediana ...................................................................................................................... 47 7.1.3. Parametry pozycyjne ................................................................................................... 47 7.1.4. Wartość oczekiwana funkcji zmiennej losowej.............................................................. 48

7.2. MIARY ROZPROSZENIA ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ........................................... 48 7.2.1. Wariancja.................................................................................................................... 48 7.2.2. Odchylenie przeciętne.................................................................................................. 50 7.2.3. Odchylenie ćwiartkowe................................................................................................ 51 7.2.4. Współczynnik zmienności............................................................................................. 51

7.3. ASYMETRIA I SPŁASZCZENIE ROZKŁADU JEDNOWYMIAROWEJ ZMIENNEJ LOSOWEJ ................. 52 7.4. WARTOŚĆ OCZEKIWANA I MOMENTY ZMIENNEJ LOSOWEJ DWUWYMIAROWEJ ........................ 54 7.5. PARAMETRY ROZKŁADU ZMIENNEJ LOSOWEJ DWUWYMIAROWEJ ........................................... 57

7.5.1. Wartość oczekiwana funkcji dwuwymiarowej zmiennej losowej ................................... 57 7.5.2. Momenty dwuwymiarowej zmiennej losowej ................................................................ 59 7.5.3. Współczynnik korelacji ................................................................................................ 62 7.5.3. Zmienne losowe nieskorelowane .................................................................................. 64

Page 4: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

4

8. REGRESJA ZMIENNYCH LOSOWYCH............................................................................ 65

8.1. WPROWADZENIE ................................................................................................................. 65 8.2. ZALEśNOŚĆ FUNKCYJNA ZMIENNYCH LOSOWYCH ................................................................. 66 8.3. REGRESJA I RODZAJU .......................................................................................................... 67 8.4. REGRESJA II RODZAJU ......................................................................................................... 68 8.5. LINIOWA REGRESJA II RODZAJU ........................................................................................... 68

9. PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA ........................................... 75

9.1. ROZKŁADY SKOKOWE.......................................................................................................... 75 9.1.1. Rozkład jednopunktowy ............................................................................................... 75 9.1.2. Rozkład dwupunktowy.................................................................................................. 75 9.1.3. Rozkład dwumianowy .................................................................................................. 76 9.1.4. Rozkład geometryczny.................................................................................................. 79 9.1.5. Rozkład Poissona......................................................................................................... 80 9.1.6. Powiązanie rozkładów skokowych ............................................................................... 83

9.2. ROZKŁADY CIĄGŁE .............................................................................................................. 84 9.2.1. Rozkład jednostajny ..................................................................................................... 84 9.2.2. Rozkłady normalne ...................................................................................................... 85 9.2.3. Rozkład wykładniczy.................................................................................................... 93 9.2.4 Rozkład chi kwadrat ..................................................................................................... 93 9.2.5. Rozkład Studenta ......................................................................................................... 95 9.2.6. Rozkład Snedecora ...................................................................................................... 97 9.2.8. Powiązania rozkładów ciągłych................................................................................... 99

9.3 ZESTAWIENIE ROZKŁADÓW ................................................................................................ 100 9.3.1. Zestawienie rozkładów skokowych ............................................................................. 100 9.3.2. Zestawienie rozkładów ciągłych................................................................................. 101

10. TWIERDZENIA GRANICZNE......................................................................................... 105

10.1. RODZAJE TWIERDZEŃ GRANICZNYCH................................................................................ 105 10.2. TWIERDZENIA INTEGRALNE.............................................................................................. 105

10.2.1. ZbieŜność według dystrybuant.................................................................................. 105 10.2.2. Twierdzenie Lindeberga – Levy’ego......................................................................... 105 10.2.3. Integralne twierdzenie Moivre’a – Laplace’a........................................................... 106 10.2.5. Związek pomiędzy twierdzeniami granicznymi integralnymi..................................... 107 10.2.6. Uwagi końcowe o twierdzeniach integralnych.......................................................... 107

10.3. TWIERDZENIA LOKALNE .................................................................................................. 107 10.3.1. Twierdzenie Poissona .............................................................................................. 107 10.3.2. Lokalne twierdzenie Moivre’a – Laplace’a .............................................................. 108

10.4. PRAWA WIELKICH LICZB .................................................................................................. 108 10.4.1. ZbieŜność według prawdopodobieństwa................................................................... 108 10.4.2. Prawo wielkich liczb Bernoulliego........................................................................... 109 10.4.3. Prawo wielkich liczb Chinczyna............................................................................... 109

Page 5: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

5

5. ZDARZENIA LOSOWE I PRAWDOPODOBIEŃSTWO

5.1. Uwagi wstępne

Przypadkowość lub inaczej losowość wiąŜe się z kaŜdym doświadczeniem, jest ono bowiem zawsze w większym czy mniejszym stopniu losowe.

Rachunek prawdopodobieństwa jest działem matematyki zajmującym się badaniem prawidłowości w zakresie doświadczeń losowych, zwanych takŜe zjawiskami przypadkowymi.

Przez doświadczenie losowe rozumiemy takie doświadczenie, które moŜe być powtarzane wiele razy w tych samych warunkach i którego wyników nie moŜna jednoznacznie przewidzieć. Przykłady doświadczeń losowych: • Rzut monetą. • Rzut kością. • Losowanie Toto-Lotka. • Rozdanie kart w czasie gry w brydŜa. • Obserwacja liczby cząstek α emitowanych przez substancję promieniotwórczą w ciągu

pewnego czasu, np. 10 sek. • Pomiar określonej wielkości fizycznej. • Strzelanie do celu. • Bezawaryjny czas pracy komputera, itp.

5.2. Zdarzenia losowe

Pojęciem pierwotnym rachunku prawdopodobieństwa jest zdarzenie elementarne. Dla kaŜdego doświadczenia naleŜy oddzielnie ustalić, co rozumie się przez to pojęcie i jakie moŜliwe są zdarzenia elementarne. Zbiór wszystkich zdarzeń elementarnych danego doświadczenia losowego oznaczamy literą Ω.

Zdarzenia losowe (krótko: zdarzenia) są podzbiorami złoŜonymi z pewnej liczby zdarzeń elementarnych.

Dane zdarzenie losowe zachodzi wtedy i tylko wtedy, gdy zachodzi jedno ze zdarzeń elementarnych wchodzących w skład tego zdarzenia losowego. O zdarzeniach elementarnych, które naleŜą do danego zdarzenia losowego mówi się, Ŝe sprzyjają temu zdarzeniu.

Zdarzeniami losowymi są takŜe szczególne zbiory: • Sam zbiór wszystkich zdarzeń elementarnych Ω, który nazywamy zdarzeniem pewnym; • Zbiór ∅ nie zawierający Ŝadnego zdarzenia elementarnego (zbiór pusty), który nazywamy

zdarzeniem niemoŜliwym; • Zbiory jednoelementowe, składające się z jednego zdarzenia elementarnego.

Zdarzenie pewne zachodzi w kaŜdym doświadczeniu losowym, natomiast zdarzenie niemoŜliwe nie zachodzi w Ŝadnym doświadczeniu.

Jeśli zbiór zdarzeń elementarnych Ω ma n elementów, to zdarzeń losowych jest n2 (łącznie ze zdarzeniem pewnym i niemoŜliwym) czyli tyle, ile podzbiorów ma n-elementowy zbiór.

Przykład 5.1

Partia towaru składa się ze sztuk dobrych i wadliwych. Z partii tej wybieramy losowo jedną sztukę towaru. Zdarzenia elementarne ustalamy następująco: d - wybranie sztuki dobrej, w - wybranie sztuki wadliwej. Wtedy zbiorem zdarzeń elementarnych jest zbiór

w,d=Ω

Page 6: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

6

MoŜliwe są 4 zdarzenia losowe: d - wybranie sztuki dobrej;

w - wybranie sztuki wadliwej;

Ω=w,d - wybranie sztuki dobrej lub wadliwej (zdarzenie pewne); ∅- zdarzenie niemoŜliwe (wybranie sztuki ani dobrej ani wadliwej).

Przykład 5.2

Strzelec oddaje do celu dwa strzały. Zdarzenia elementarne ustalamy następująco: ( )t,t - dwukrotne

trafienie do celu; ( )c,t - trafienie w pierwszym strzale i chybienie w drugim strzale; ( )t,c -

chybienie w pierwszym i trafienie w drugim strzale; ( )c,c - dwukrotne chybienie celu. Zbiorem zdarzeń elementarnych jest zbiór

( ) ( ) ( ) ( ) c,c,t,c,c,t,t,t=Ω

MoŜliwych jest tu 1624 = zdarzeń losowych. Oto niektóre z nich: ( ) ( ) ( ) tc,,ct,,tt, - trafienie do celu co najmniej raz;

( ) ( ) ct,,tt, - trafienie do celu w pierwszym strzale;

( ) t,t - dwukrotne trafienie do celu. Przykład 5.3

Strzelec oddaje do celu dwa strzały. Interesuje nas liczba celnych strzałów. Zdarzenia elementarne w odróŜnieniu od poprzedniego przykładu ustalimy następująco: 0ω - strzelec trafił do celu 0 razy,

1ω - trafił do celu dokładnie raz i 2ω - trafił dwa razy. Zbiorem zdarzeń elementarnych jest teraz zbiór

210 ,, ωωω=Ω

Zdarzeń losowych mamy w tym przykładzie 823 = . Oto niektóre z nich: 21 ,ωω - trafienie do celu co najmniej raz;

10 ,ωω - trafienie do celu co najwyŜej raz;

1ω - trafienie do celu dokładnie raz;

Ω=ωωω 210 ,, - trafienie do celu nie więcej niŜ dwa razy (zdarzenie pewne).

Przy tak określonym zbiorze zdarzeń elementarnych nie moŜna mówić o zdarzeniu polegającym na trafieniu do celu w pierwszym strzale. ♦

Przykłady 5.2 i 5.3 wskazują, Ŝe dla tego samego doświadczenia losowego, w zaleŜności od interesującego nas zagadnienia, zbiór zdarzeń elementarnych moŜe być określony w róŜny sposób.

5.3. Relacje między zdarzeniami

Stosując działania rachunku zbiorów z danych zdarzeń losowych moŜemy tworzyć nowe, analogicznie jak robimy to ze zdaniami1. Postępując tak określamy:

• Sumę zdarzeń A, B - zdarzenie składające się z tych wszystkich zdarzeń elementarnych, które naleŜą do co najmniej jednego ze zdarzeń A, B – rys. 5.1. Sumę zdarzeń A, B oznaczamy symbolem BA ∪ . Suma zdarzeń A, B zachodzi wtedy i tylko wtedy, gdy zachodzi co najmniej jedno ze zdarzeń A, B.

• Iloczyn zdarzeń A, B - zdarzenie składające się z tych wszystkich zdarzeń elementarnych, które naleŜą do kaŜdego ze zdarzeń A, B – rys. 5.2. Iloczyn zdarzeń A, B oznaczamy symbolem

BA ∩ . Iloczyn zdarzeń A, B zachodzi wtedy i tylko wtedy, gdy zachodzi kaŜde ze zdarzeń A, B.

1 KaŜde działanie w rachunku zbiorów ma odpowiednik w rachunku zdań i odwrotnie, np. sumie zbiorów odpowiada

alternatywa zdań, a iloczynowi zbiorów – koniunkcja zdań.

Page 7: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

7

• RóŜnicę zdarzeń A, B - zdarzenie składające się z tych wszystkich zdarzeń elementarnych, które naleŜą do A i nie naleŜą do B – rys. 5.3. RóŜnicę zdarzeń A, B oznaczamy symbolem BA − . RóŜnica zdarzeń A, B zachodzi wtedy i tylko wtedy, gdy zachodzi A i nie zachodzi B.

• Zdarzenie przeciwne do zdarzenia A - zdarzenie składające się z tych wszystkich zdarzeń elementarnych, które nie naleŜą do A (lecz naleŜą do zbioru zdarzeń elementarnych Ω) – rys. 5.4. Zdarzenie przeciwne do A oznaczamy symbolem A′ . Zdarzenie przeciwne do A zachodzi wtedy i tylko wtedy, gdy nie zachodzi zdarzenie A.

• Zdarzenie A pociągające za sobą zdarzenie B - jeśli kaŜde zdarzenie elementarne naleŜące do A naleŜy takŜe do B i zapisujemy to w postaci BA ⊂ - rys. 5.5. Zdarzenie A pociąga zdarzenie B wtedy i tylko, wtedy, gdy z zajścia zdarzenia A wynika zajście zdarzenia B.

• Wykluczające się zdarzenia A, B - jeśli nie mają one wspólnych zdarzeń elementarnych, tzn. iloczyn zdarzeń A, B jest zdarzeniem niemoŜliwym ∅=∩ BA - rys. 5.6. Zdarzenia A, B wykluczają się wtedy i tylko wtedy, gdy nie mogą zajść łącznie.

Rys. 5.1. Suma zdarzeń Rys. 5.2. Iloczyn zdarzeń Rys. 5.3. RóŜnica zdarzeń

Rys. 5.4. Zdarzenie przeciwne Rys. 5.5. Zdarzenie pociągające Rys. 5.6. Zdarzenia wykluczające

się

PowyŜsze rysunki nazywane są diagramami Venna.

W poniŜszej tabeli podano wybrane relacje dotyczące rozpatrywanych zdarzeń2.

Tabela 5.1. Relacje dotyczące zdarzeń

Suma i iloczyn zdarzeń Zdarzenie przeciwne RóŜnica zdarzeń

A∪A =A

A∩A = A

A∪B=B∪A

A∩B=B∩A

A∩(B∩C) =(A∩B)∩C

A∩(B ∪C)=(A∩B) ∪(A ∩C)

A∪(B∩C) =(A∪B)∩(A∪C)

A∪Ω=Ω

A∩∅=∅

A∩Ω=A

(A’)’ = A

A∩A’= ∅

A∪A’= Ω

Ω’=∅

(A∪B)’= A’∩B’

(A∩B)’ = A’∪B

A–B = A∩B’

Ω–A= A’

A–Ω= ∅

∅–A= ∅

A–A= ∅

A–∅= A

2 Dowód praw de Morgana odano w punkcie 20.1 części VII Wybrane twierdzenia z dowodami

prawa

de

Morgana

Page 8: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

8

PoniŜej za pomocą diagramów Venna przedstawiono dwie z w/w zaleŜności:

• A∩(B ∪C)=(A∩B)∪(A∩C) - rys. 5.7

• A∪(B∩C) =(A∪B)∩(A∪C) - rys. 5.8.

B ∪C A∩B B∩C A∪B

A∩(B ∪C) A∩C A∪(B∩C) A∪C

(A∩B)∪(A∩C) (A∪B)∩(A∪C)

Rys. 5.7. A∩∩∩∩(B ∪∪∪∪C)=(A∩∩∩∩B)∪∪∪∪(A∩∩∩∩C) Rys. 5.8. A∪∪∪∪(B∩∩∩∩C) =(A∪∪∪∪B)∩∩∩∩(A∪∪∪∪C)

Przykład 5.4

Z partii układów scalonych wybrano losowo 5 sztuk. Interesuje nas liczba wybranych wadliwych układów. Dlatego zbiór zdarzeń elementarnych określamy następująco

543210 ,,,,, ωωωωωω=Ω

gdzie: ( )5,,1,0kk K=ω oznacza zdarzenie elementarne polegające na wybraniu dokładnie k

wadliwych układów scalonych. Zdarzenie 5432 ,,,A ωωωω= oznacza wybranie co najmniej

dwóch wadliwych układów; 43210 ,,,,B ωωωωω= – wybranie nie więcej niŜ czterech wadliwych

układów; 1C ω= wybranie dokładnie jednego wadliwego układu. Wtedy: suma Ω=∪ BA jest zdarzeniem pewnym; iloczyn 432 ,,BA ωωω=∩ oznacza wybranie 2 lub 3 lub 4 wadliwych układów;

róŜnica 5BA ω=− oznacza wybranie dokładnie 5 wadliwych układów;

zdarzeniem przeciwnym do A jest 10 ,A ωω=′ oznacza wybranie co najwyŜej jednego

wadliwego układu; zdarzenie C pociąga zdarzenie B, BC ⊂ oznacza to, Ŝe gdy zajdzie zdarzenie C to zajdzie takŜe

zdarzenie B zdarzenia A i C wykluczają się, ∅=∩ BA oznacza to, Ŝe zdarzenia te nie mogą zajść łącznie.

Page 9: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

9

5.4. Definicje prawdopodobieństwa

5.4.1. Klasyczna definicja prawdopodobieństwa

Jeśli: a) zbiór zdarzeń elementarnych ma skończoną liczbę elementów

Ω = ω1, ω2, … , ωn b) wszystkie zdarzenia losowe jednoelementowe

ω1, ω2, ..., ωn są jednakowo prawdopodobne

P(ω1) = P(ω2) = ... = P(ωn) to prawdopodobieństwo zdarzenia A jest równe

P(A) = A

Ω

gdzie: A oznacza liczbę zdarzeń elementarnych naleŜących do zdarzenia A, natomiast Ω liczbę wszystkich zdarzeń elementarnych.

Zdarzenia elementarne, z których składa się zdarzenie A, nazywamy zdarzeniami sprzyjającymi zajściu tego zdarzenia, zaś zdarzenia elementarne, naleŜące do zbioru Ω zdarzeniami moŜliwymi. MoŜna więc powiedzieć, Ŝe gdy spełnione są załoŜenia a) i b), to prawdopodobieństwo zdarzenia A jest równe stosunkowi liczby zdarzeń sprzyjających zajściu A do liczby moŜliwych zdarzeń elementarnych.

Przykład 5.5

Rzut kością Ω = ω1, ω2, ω3, ω4, ω5 ω6, gdzie ωk (k = 1, ..., 6) oznacza wyrzucenie k oczek. Jeśli kość jest symetryczna, to spełnione są załoŜenia a) i b). Mamy 6 moŜliwych zdarzeń elementarnych. Zdarzeniu A - wyrzucenie parzystej liczby oczek - sprzyjają 3 zdarzenia

elementarne ω2, ω4, ω6, więc P(A) = 6

3 =

2

1; zdarzeniu B (wyrzucenie co najmniej 3 oczek)

sprzyjają 4 zdarzenia elementarne ω3, ω4, ω5 ω6, więc P(B) = 6

4 =

3

2; zdarzeniu

C - wyrzuceniu dokładnie 3 oczek sprzyja tylko jedno zdarzenie elementarne ω3, więc P(C) = 6

1.

5.4.2. Geometryczna definicja prawdopodobieństwa

Rozpatrzymy przypadek, gdy zbiór zdarzeń elementarnych Ω jest zbiorem punktów prostej, płaszczyzny lub przestrzeni. Zakładamy, Ŝe: a) zbiór Ω jest mierzalny o skończonej mierze, tzn. ma skończoną długość, pole lub objętość; b) wszystkie punkty zbioru Ω mają jednakowe szanse wylosowania.

Wtedy prawdopodobieństwo dowolnego zdarzenia A, będącego podzbiorem mierzalnym zbioru Ω, wyraŜa się wzorem:

P(A) = miaraΩ

miaraA

gdzie przez miarę rozumiemy długość, pole lub objętość, w zaleŜności czy zbiór Ω leŜy na prostej, płaszczyźnie lub w przestrzeni.

Page 10: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

10

Przykład 5.6

Obliczymy prawdopodobieństwo, Ŝe losowo wybrany punkt kwadratu OBCD o boku 1 jest oddalony od punktu 0 więcej niŜ o 0,5 i mniej niŜ o 1.

( )16

3

1

2

11

4

1

pole

poleAAP

2

22

π=

−π

=

Przykład 5.7

Dysponujemy radarem o jednostajnie obracającej się antenie, której rozwarcie charakterystyki kierunkowej wynosi 18°. Obliczymy prawdopodobieństwo wykrycia pojedynczego sygnału radiowego przez ten radar. Zakładamy, Ŝe sygnał jest punktowy, tzn. Ŝe jest bardzo krótki w porównaniu z okresem obrotu anteny.

Rozwiązanie

Radar wykrywa sygnał w wycinku koła o promieniu R w kącie rozwarcia 18°. Natomiast sygnał moŜe pojawić się w dowolnym punkcie tego koła (nie znamy połoŜenia nadajnika).

Pola wycinka i koła są proporcjonalne do kątów 18° i 360°, więc

P(A) = Ωpole

poleA =

°°

360

18 = 0,05

5.4.3. Statystyczna definicja prawdopodobieństwa

W praktyce nie zawsze znana jest liczebność zbioru zdarzeń elementarnych, która jest potrzebna przy wykorzystaniu definicji klasycznej, bądź nie jest łatwo doliczyć się liczby zdarzeń elementarnych sprzyjających poszczególnym zdarzeniom losowym. Podobnie nie zawsze są znane miary potrzebne dla skorzystania z definicji geometrycznej.

Znajomości tych wielkości nie wymaga definicja statystyczna.

W długiej serii doświadczeń obserwuje się wystąpienia zdarzenia A. JeŜeli częstość n/N zdarzenia A, gdzie N jest długością serii, a n liczbą doświadczeń, w których pojawiło się zdarzenie A, przy wzrastaniu długości serii zbliŜa się do pewnej liczby p oscylując wokół tej liczby i jeśli wahania częstości zdarzenia przejawiają tendencję malejącą przy wzrastającym N, to liczba p nazywana jest prawdopodobieństwem zdarzenia A.

N

nlim)A(P

N ∞→=

Page 11: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

11

Rys. 5.9. Ilustracja statystycznej definicji prawdopodobieństwa

5.4.4. Aksjomatyczna definicja prawdopodobieństwa

śadna z podanych powyŜej definicji nie jest pozbawiona wad. I tak: • Definicja klasyczna jest tautologią3, gdyŜ definiując prawdopodobieństwo posługuje się

pojęciem zdarzeń jednakowo moŜliwych, czyli jednakowo prawdopodobnych. • Definicja geometryczna wymaga znajomości miary zbiorów, którymi się posługuje. • Definicja statystyczna nie jest ścisła, bo nie jest sprecyzowana granica w niej występująca. Wspólną wadą tych definicji jest to, Ŝe definiując prawdopodobieństwo zdarzenia, odnosimy się do określonego typu doświadczenia.

Takich wad nie ma podana poniŜej definicja aksjomatyczna, gdyŜ dotyczy ona wszystkich rodzajów doświadczeń losowych.

Jeśli kaŜdemu zdarzeniu losowemu A przyporządkowano liczbę rzeczywistą P(A), zwaną prawdopodobieństwem zdarzenia A, w taki sposób, aby spełnione były następujące warunki: I. 0 ≤ P(A) ≤ 1 II. Prawdopodobieństwo zdarzenia pewnego jest równe 1 P(Ω) = 1 III. JeŜeli zdarzenia A1, A2, ...An,... wykluczają się parami (tzn. kaŜde dwa z nich wykluczają się),

wtedy prawdopodobieństwo sumy tych zdarzeń jest równe sumie ich prawdopodobieństw P(A1 ∪ A2 ∪ ... ∪ An ∪ ...) = P(A1) + P(A2) + ... + P(An) + ...

to określoną w ten sposób funkcję P nazywamy prawdopodobieństwem.

Jeśli zbiór zdarzeń elementarnych Ω ma skończoną liczbę elementów, to warunek III moŜe być zastąpiony prostszym warunkiem:

III'. Prawdopodobieństwo sumy dwóch dowolnych zdarzeń wykluczających się jest równe sumie ich prawdopodobieństw

P(A ∪ B) = P(A) + P(B)

Podane wcześniej definicje prawdopodobieństwa: klasyczna, geometryczna i statystyczna są szczególnymi przypadkami definicji aksjomatycznej.

Przykład 5.8

Rzut monetą. Ω = O, R, gdzie O oznacza wyrzucenie orła, zaś R - wyrzucenie reszki. Mamy cztery zdarzenia losowe ∅, O, R, Ω.. Określimy na tych zdarzeniach funkcję P w następujący sposób

P(∅) = 0, P(O) = 2

1 , P(R) =

2

1, P(Ω) = 1

Łatwo sprawdzić, Ŝe tak określona funkcja P spełnia warunki I, II, III, a więc jest prawdo-podobieństwem. Wartości tej funkcji są prawdopodobieństwami poszczególnych zdarzeń.

3 Wypowiedź, w której treści wyraz określający nie wzbogaca treści wyrazu określanego, powtarzając ją tylko.

Page 12: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

12

Na tych samych zdarzeniach losowych określimy inną funkcję, którą dla odróŜnienia oznaczymy P1

P1(∅) = 0; P1(O) = 3

1, P1(R) =

3

2, P1(Ω) = 1

Łatwo sprawdzić, Ŝe takŜe funkcja P1 jest prawdopodobieństwem.

Widzimy, Ŝe aksjomatyczna definicja prawdopodobieństwa nie precyzuje jednoznacznie wartości liczbowych prawdopodobieństw poszczególnych zdarzeń losowych. Na tym samym zbiorze zdarzeń losowych prawdopodobieństwo moŜe być określone na róŜne sposoby, byleby zgodnie z warunkami I, II, III. Jeśli jednak chcemy wykorzystywać teorię prawdopodobieństwa w praktyce, to powinniśmy określić prawdopodobieństwo tak, by spełniony był postulat: w długim ciągu powtórzeń w tych samych warunkach doświadczenia losowego częstość4 zajścia zdarzenia A powinna zbliŜać się do prawdopodobieństwa tego zdarzenia. Postulat ten nazywamy interpretacją prawdopodobieństwa przy pomocy częstości.

Z aksjomatycznej definicji prawdopodobieństwa moŜna wyprowadzić następujące własności prawdopodobieństwa5: I. prawdopodobieństwo zdarzenia niemoŜliwego jest równe zeru

P(∅) = 0 II. jeśli zdarzenia A1,..., An wykluczają się parami, to prawdopodobieństwo sumy zdarzeń jest

równe sumie ich prawdopodobieństw P(A1 ∪ A2 ∪ ... ∪ An) = P(A1) + P(A2) + ... + P(An)

III. jeśli zdarzenie A pociąga zdarzenie B, to P(A) ≤ P(B)

P(B – A) = P(B) – P(A) IV. prawdopodobieństwo sumy dwóch dowolnych zdarzeń jest równe sumie prawdopodobieństw

tych zdarzeń zmniejszonej o prawdopodobieństwo ich iloczynu P(A ∪ B) = P(A) + P(B) – P(A ∩ B)

V. prawdopodobieństwo zdarzenia A jest równe róŜnicy jedności i prawdopodobieństwa zdarzenia przeciwnego do A

P(A) = 1 – P(A')

5.7. Prawdopodobieństwo warunkowe

Definicja prawdopodobieństwa warunkowego

Niech A i B będą dowolnymi zdarzeniami losowymi, przy czym P(B)>0. Prawdopodobieństwem

warunkowym zdarzenia A pod warunkiem, Ŝe zaszło zdarzenie B, nazywamy iloraz prawdopodobieństwa iloczynu zdarzeń A i B oraz prawdopodobieństwa zdarzenia B, co zapisujemy

P(A/B) = )B(P

B) P(A ∩

Symbol P(A/B) czytamy: „prawdopodobieństwo zdarzenia A pod warunkiem, Ŝe zaszło zdarzenie B”. Tak więc informacja o jakimś zdarzeniu B, które zaszło, moŜe mieć wpływ na prawdopodobieństwo innego zdarzenia A.

4 Częstością zdarzenia A nazywamy stosunek liczby doświadczeń, w których zdarzenie A zaszło, do liczby

wykonanych doświadczeń. 5 Dowody podano w punkcie 20.2. części VII Wybrane twierdzenia z dowodami

Page 13: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

13

Przykład 5.9

Obliczymy prawdopodobieństwo zdarzenia A polegającego na wyrzuceniu parzystej liczby oczek przy rzucie kością pod warunkiem, Ŝe zaszło zdarzenie B polegające na wyrzuceniu co najwyŜej 5 oczek. Rozwiązanie

Oczywiście A = ω2, ω4, ω6, B =ω1, ω2, ω3, ω4, ω5,, zaś A ∩ B = ω2, ω4, więc

P(A/B) = )B(P

B) P(A ∩=

6

56

2

=5

2

Prawdopodobieństwo iloczynu

Ze wzoru na prawdopodobieństwo warunkowe moŜna wyznaczyć prawdopodobieństwo iloczynu dwóch zdarzeń. Prawdopodobieństwo iloczynu dwóch zdarzeń jest równe iloczynowi prawdopodobieństwa jednego z tych zdarzeń i prawdopodobieństwa drugiego zdarzenia pod warunkiem zajścia pierwszego

P(A ∩ B) = P(A) P(B/A) przy załoŜeniu, Ŝe P(A)>0

Przykład 5.10

Detale poddawane są dwóm próbom. Drugiej próbie poddawane są te detale, które pozytywnie przeszły pierwszą próbę. Prawdopodobieństwo, Ŝe detal przejdzie pozytywnie pierwszą próbę wynosi 0,8, a dla drugiej pod warunkiem, Ŝe przeszedł pierwszą próbę wynosi 0,6. Obliczymy prawdopodobieństwo, Ŝe detal przeszedł pozytywnie obie próby. Rozwiązanie

Niech A oznacza zdarzenie: detal przeszedł pozytywnie pierwszą próbę, B: detal przeszedł pozytywnie drugą próbę. Obliczymy P(A ∩ B). Z treści zadania wynika, Ŝe P(A) = 0,8, P(B/A) = 0,6, więc

P(A ∩ B) = P(A)P(B/A) = 0,8•0,6 = 0,48

5.8. Prawdopodobieństwo całkowite i twierdzenie Bayesa

Twierdzenie o prawdopodobieństwie całkowitym

JeŜeli zdarzenia losowe A1, A2,..., An o dodatnich prawdopodobieństwach wykluczają się parami i suma ich jest zdarzeniem pewnym, to dla dowolnego zdarzenia losowego B zachodzi wzór

P(B) = P(A1)P(B/A1) + P(A2)P(B/A2) + … + P(An)P(B/An) zwany wzorem na prawdopodobieństwo całkowite.6

Przykład 5.11

Piłkarzy podzielono na trzy grupy. W pierwszej grupie było 10, w drugiej 25, w trzeciej 15 piłkarzy. KaŜdy piłkarz z pierwszej grupy zdobywa gola z karnego z prawdopodobieństwem 0,9, z drugiej z prawdopodobieństwem 0,8, a z trzeciej z prawdopodobieństwem 0,6. Obliczymy prawdopodobieństwo, Ŝe losowo wybrany piłkarz zdobędzie gola z karnego.

Rozwiązanie

Niech Ak będzie zdarzeniem polegającym na wybraniu piłkarza z k-tej grupy (k = 1,2,3), zaś B zdarzeniem polegającym na tym, Ŝe wybrany piłkarz strzeli gola z karnego. Łatwo sprawdzić, Ŝe zdarzenia A1, A2, A3, spełniają załoŜenia twierdzenia o prawdopodobieństwie całkowitym, więc

P(B) = P(A1)P(B/A1) + P(A2)P(B/A2) + P(A3)P(B/A3)

6 Dowód podano w punkcie 20.3. części VII Wybrane twierdzenia z dowodami

Page 14: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

14

Wszystkich piłkarzy było 50, więc P(A1) = 50

10 = 0,2, P(A2) =

50

25= 0,5, P(A3) =

50

15= 0,3, dalej

z treści zadania wynika, Ŝe P(B/A1) = 0,9, P(B/A2) = 0,8, P(B/A3) = 0,6, zatem

P(B) = 0,2 ⋅ 0,9 + 0,5 ⋅ 0,8 + 0,3 ⋅ 0,6 = 0,76

Przykład 5.12

Zakład produkuje układy scalone na dwie zmiany. Pierwsza zmiana produkuje dwa razy więcej układów scalonych niŜ druga. Wśród układów scalonych wyprodukowanych przez pierwszą zmianę jest 3% wadliwych, a przez drugą zmianę jest 5% wadliwych. Z dziennej produkcji układów scalonych wybrano losowo jeden układ. Obliczymy prawdopodobieństwo, Ŝe jest on wadliwy.

Rozwiązanie

Wprowadzamy oznaczenia A1 - wybrany układ został wyprodukowany przez pierwszą zmianę, A2 - wybrany układ został wyprodukowany przez drugą zmianę, B - wybrany układ jest wadliwy.

Obliczymy P(B).

Z treści zadania wynika, Ŝe zdarzenia A1 i A2 spełniają załoŜenie twierdzenia o prawdopodobień-

stwie całkowitym, zatem

1 1 2 2P(B) P(A )P(B | A ) P(A )P(B | A= + )

ale

1

2

P(A ) 2 / 3,

P(A ) 1/ 3

=

=1

2

P(B | A ) 0,03

P(B | A ) 0,05

=

=

więc

P(B) 2 / 3 0,03 1/ 3 0,05= ⋅ + ⋅ = 300

11

Twierdzenie Bayesa

JeŜeli zdarzenia losowe A1,A2,...,An o dodatnich prawdopodobieństwach wykluczają się parami i suma ich jest zdarzeniem pewnym, zaś B jest dowolnym zdarzeniem o dodatnim prawdopodobieństwie, to zachodzi wzór

k kk

P(A )P(B | A )P(A | B)

P(B)= wzór Bayesa - postać zredukowana

P(Ak/B) = k k

1 1 2 2 n n

P(A )P(B / A )

P(A )P(B / A ) P(A )P(B / A ) ... P(A )P(B / A )+ + + wzór Bayesa - postać pełna

dla k=1,2, ... , n

zwany wzorem Bayesa7.

Na podstawie wzoru Bayesa moŜna więc obliczyć prawdopodobieństwa P(Ak/B), k=1,2, …,n znając prawdopodobieństwa P(Ak). Oznacza to, Ŝe jeŜeli znamy prawdopodobieństwa P(Ak) oraz wiemy, Ŝe zdarzenie B zostało zrealizowane, względnie - na pewno zostanie zrealizowane - to moŜemy jakby na nowo obliczyć prawdopodobieństwo tych samych zdarzeń uwzględniając fakt realizacji zdarzenia B, stąd teŜ prawdopodobieństwa P(Ak) nazywane są prawdopodobieństwami a

priori, natomiast prawdopodobieństwa P(Ak/B) prawdopodobieństwami a posteriori.

7 Dowód podano w punkcie 20.4. części VII Wybrane twierdzenia z dowodami

Page 15: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

15

Przykład 5.13

Sklep sprzedaje Ŝarówki produkowane przez fabryki F1 i F2. śarówki wyprodukowane przez F1 stanowią 60 %, zaś przez F2 40% całego zapasu Ŝarówek. Wiadomo, Ŝe 1 % Ŝarówek wyprodukowanych przez F1 i 2 % Ŝarówek wyprodukowanych przez F2 to braki. Kupiono jedną Ŝarówkę, która okazała się brakiem. Obliczymy prawdopodobieństwo, Ŝe została ona wyprodukowana przez F2.

Rozwiązanie

Niech A1 będzie zdarzeniem polegającym na kupieniu Ŝarówki wyprodukowanej przez F1, A2 – na kupieniu Ŝarówki wyprodukowanej przez F2, zaś B – na kupieniu Ŝarówki, która jest brakiem. NaleŜy obliczyć P(A2/B). Łatwo sprawdzić, Ŝe zdarzenia A1, A2 i B spełniają załoŜenia twierdzenia Bayesa, więc

P(A2/B) = 2 2

1 1 2 2

P(A )P(B / A )

P(A )P(B/ A ) P(A )P(B / A )+=

02,04,001,06,0

02,04,0

⋅+⋅

⋅=

7

4= 0,57

Przykład 5.14

Dalszy ciąg przykładu 5.12. Wylosowano układ wadliwy. Obliczymy prawdopodobieństwo, Ŝe został on wyprodukowany przez pierwszą zmianę.

Rozwiązanie

NaleŜy obliczyć P(A1/B). Ze wzoru Bayesa – postać zredukowana - mamy

1 11

P(A )P(B / A ) 2 / 3 0,03 6P(A / B)

P(B) 11/ 300 11

⋅= = =

5.9. Zdarzenia niezaleŜne

NiezaleŜność dwóch zdarzeń

Zdarzenia A, B nazywamy zdarzeniami niezaleŜnymi, jeśli prawdopodobieństwo iloczynu tych zdarzeń jest równe iloczynowi ich prawdopodobieństw

P(A ∩ B) = P(A) P(B) (5.1)

Zakładamy, Ŝe P(B)>0. Warunkiem koniecznym i wystarczającym niezaleŜności zdarzeń A i B jest równość

P(A/B) = P(A) Oznacza to, Ŝe zdarzenie B nie ma wpływu na prawdopodobieństwo zajścia zdarzenia A.

Dowód konieczności

ZałóŜmy, Ŝe A i B są zdarzeniami niezaleŜnymi. Wtedy

)A(P)B(P

)B(P)A(P

)B(P

)BA(P)B/A(P =

⋅=

∩=

Dowód dostateczności

ZałóŜmy, Ŝe zachodzi wzór P(A/B) = P(A). Wówczas

P(A ∩ B) = P(A/B) P(B)=P(A) P(B)

co świadczy o tym, Ŝe zdarzenia A i B są niezaleŜne.

Przykład 5.15

Dwukrotny rzut monetą Ω = (O,O),(O,R),(R,O),(R,R). Niech A oznacza zdarzenie – w pierwszym rzucie otrzymano orła, B - w drugim rzucie otrzymano orła, wtedy

Page 16: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

16

P(A) = P((O,O),(O,R)) = 2

1, P(B)=P((O,O),(R,O)) =

2

1, P(A ∩ B) = P((O,O)) =

4

1, więc

P(A ∩ B) = P(A) P(B), czyli zdarzenia A i B są niezaleŜne.

Przykład 5.16

Rzut kostką. 654321 ω,ω,ω,ω,ω,ω=Ω

2 4 6A ω ,ω ,ω= - wyrzucenie parzystej liczby oczek,

1 2 3 4 5B ω ,ω ,ω ,ω ,ω= - wyrzucenie co najwyŜej 5 oczek,

1 2 3 4C ω ,ω ,ω ,ω= - wyrzucenie co najwyŜej 4 oczek.

Czy zdarzenia A i B oraz A i C stanowią pary zdarzeń niezaleŜnych?

Rozwiązanie

PoniewaŜ 2 4A B ω ,ω∩ = = A C∩ , więc 2 1

P(A B) P(A C)6 3

∩ = ∩ = = , zatem

1 5 5P(A)P(B) P(A B)

2 6 12= ⋅ = ≠ ∩

1 2 1P(A)P(C) P(A C)

2 3 3= ⋅ = = ∩

Odp. Zdarzenia A i B nie są niezaleŜne, natomiast zdarzenia A i C są niezaleŜne.

NiezaleŜność zdarzeń przeciwnych

JeŜeli zdarzenia A1 i A2 są niezaleŜne, to

a) A1 i '2A b) '

1A i A2 c) '1A i '

2A są parami zdarzeń niezaleŜnych8.

NiezaleŜność trzech zdarzeń

Trzy zdarzenia A, B i C są niezaleŜne, jeśli zachodzą wzory

P(A ∩ B) = P(A) P(B), P(A ∩ C) = P(A) P(C), P(B ∩ C) = P(B) P(C) (5.2)

P(A ∩ B ∩ C) = P(A) P(B) P(C) (5.3) Przykład 5.17

W hali pracują trzy maszyny. Zdarzenia polegające na zepsuciu się tych maszyn w czasie T są zdarzeniami niezaleŜnymi o prawdopodobieństwach 0,1 dla pierwszej maszyny, 0,2 dla drugiej maszyny i 0,15 dla trzeciej maszyny. Obliczymy prawdopodobieństwo, Ŝe w czasie T zepsują się a) wszystkie maszyny, b) dwie maszyny.

Rozwiązanie

Wprowadzamy zdarzenia

A – w czasie T zepsuje się pierwsza maszyna, B – w czasie T zepsuje się druga maszyna, C – w czasie T zepsuje się trzecia maszyna.

Z treści zadania wynika, Ŝe zdarzenia A, B i C są niezaleŜne o prawdopodobieństwach P(A) = 0,1, P(B) = 0,2, P(C)=0,15.

a) D – w czasie T zepsują się wszystkie maszyny

PoniewaŜ D A B C= ∩ ∩ oraz zdarzenia A, B i C są niezaleŜne, więc

P(D) P(A B C) P(A)P(B)P(C) 0,1 0,2 0,15 0,03= ∩ ∩ = = ⋅ ⋅ =

8 Dowód podano w podpunkcie 20.2.5. części VII Wybrane twierdzenia z dowodami

Page 17: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

17

b) E – w czasie T zepsują się dwie maszyny. Mamy

E (A B C ) (A B C) (A B C)′ ′ ′= ∩ ∩ ∪ ∩ ∩ ∪ ∩ ∩

PoniewaŜ iloczyny występujące w nawiasach są zdarzeniami wykluczającymi się, więc

P(E) P(A B C ) P(A B C) P(A B C)′ ′ ′= ∩ ∩ + ∩ ∩ + ∩ ∩

Z niezaleŜności zdarzeń A, B i C mamy

P(E) P(A)P(B)P(C ) P(A)P(B )P(C) P(A )P(B)P(C)′ ′ ′= + +

więc

P(E) 0,1 0,2 (1 0,15) 0,1 (1 0,2) 0,15 (1 0,1) 0,2 0,15 0,056= ⋅ ⋅ − + ⋅ − ⋅ + − ⋅ ⋅ =

Odp. a) 0,03, b) 0,056

Uwaga: Z równości (5.2) nie wynikają równości (5.3) oraz z równości (5.3) nie wynika równość (5.2), zatem przyjęcie jako definicji niezaleŜności trzech zdarzeń jedynie równości (5.2) nie gwarantuje niezaleŜności parami tych zdarzeń.

NiezaleŜność n zdarzeń (n ≥ 3)

Zdarzenia 1 nA ,...,A (5.4)

nazywamy zdarzeniami niezaleŜnymi, jeśli

1 n 1 nP(A ... A ) P(A )...P(A )∩ ∩ =

oraz prawdopodobieństwo iloczynu jest równe iloczynowi prawdopodobieństw dla dowolnego podciągu ciągu zdarzeń (5.4) złoŜonego z co najmniej dwóch zdarzeń.

Z powyŜszej definicji wynika wcześniej przyjęta definicja niezaleŜności trzech zdarzeń.

NiezaleŜność przeliczalnie wielu zdarzeń

Zdarzenia A1,A2,… nazywamy zdarzeniami niezaleŜnymi, jeŜeli dla dowolnej liczby naturalnej n 2≥ zdarzenia 1 nA ,...,A są niezaleŜne.

Uwaga. Z przyjętych definicji niezaleŜności zdarzeń wynika zasada: Jeśli n(A ) jest skończonym lub nieskończonym ciągiem zdarzeń niezaleŜnych, to dowolny jego

podciąg (złoŜony z co najmniej dwóch zdarzeń) jest ciągiem zdarzeń niezaleŜnych.

Przykład 5.18

Do samolotu oddano niezaleŜnie trzy strzały. Prawdopodobieństwo trafienia samolotu pierwszym strzałem wynosi 0,4, drugim 0,5 i trzecim 0,7. Jeśli w samolot trafił jeden pocisk, to nastąpi zestrzelenie samolotu z prawdopodobieństwem 0,2, jeśli dwa pociski - to z prawdopodobieństwem 0,6, jeśli trzy pociski - to samolot zostanie na pewno zestrzelony. Obliczymy prawdopodobieństwo, Ŝe w rezultacie trzech strzałów samolot zostanie zestrzelony.

Rozwiązanie

Oznaczmy: B1 - samolot został trafiony pierwszym pociskiem, B2 - samolot został trafiony drugim pociskiem, B3 - samolot został trafiony trzecim pociskiem, A0 - w samolot nie trafił Ŝaden pocisk, A1 - w samolot trafił jeden pocisk, A2 - w samolot trafiły dwa pociski, A3 - w samolot trafiły trzy pociski, B - samolot został strącony.

Page 18: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

18

P(A0) = P(B1′∩ B2′∩ B3′) = (1–P(B1))(1–P(B2)) (1–P(B3)) = 0,6·0,5·0,3 = 0,09

P(A1) = P((B1 ∩ B2′∩ B3′) ∪ (B1′∩ B2 ∩ B3′) ∪ (B1′∩ B2′∩ B3)) =

= 0,4·0,5·0,3 + 0,6·0,5·0,3 + 0,4·0,5·0,7 = 0,36

P(A2) = P((B1 ∩ B2 ∩ B3′) ∪ (B1 ∩ B2′∩ B3) ∪ (B1′∩ B2 ∩ B3)) =

= 0,4·0,5·0,3 + 0,4·0,5·0,7 + 0,6·0,5·0,7 = 0,41

P(A3) = (B1 ∩ B2 ∩ B3) = 0,4·0,5·0,7 = 0,14

Przy obliczaniu powyŜszych prawdopodobieństw korzystaliśmy z faktu, Ŝe zdarzenia B1, B2 i B3 są niezaleŜne oraz z twierdzenia o prawdopodobieństwie sumy zdarzeń wykluczających się.

ZauwaŜmy, Ŝe zdarzenia A0, A1, A2, A3 spełniają załoŜenia twierdzenia o prawdopodobieństwie całkowitym, więc

P(B) = P(A0)P(B/A0) + P(A1)P(B/A1) + P(A2) P(B/A2) + P(A3)P(B/A3) Z treści zadania wynika, Ŝe

P(B/A0) = 0; P(B/A1) = 0,2; P(B/A2) = 0,6; P(B/A3) =1,0

zatem P(B) = 0,09·0 + 0,36·0,2 + 0,41·0,6 + 0,14·1,0 = 0,458

Page 19: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

19

6. ZMIENNE LOSOWE

6.1. Zmienne losowe jednowymiarowe

6.1.1. Pojęcie zmiennej losowej

Pojęcie zmiennej losowej jest jednym z podstawowych pojęć rachunku prawdopodobieństwa. JeŜeli kaŜdemu zdarzeniu elementarnemu przyporządkujemy liczbę rzeczywistą, to mówimy, Ŝe została określona zmienna losowa jednowymiarowa, albo - w skrócie - zmienna losowa. Zmienna losowa jest więc funkcją, której dziedziną jest zbiór zdarzeń elementarnych Ω, a wartościami są liczby rzeczywiste9.

Zmienne losowe oznaczamy duŜymi literami z końca alfabetu łacińskiego X, Y, … JeŜeli zmienną losową oznaczymy literą X, to wartości przyjmowane przez tę zmienną losową oznaczamy małą literą x.

Niech A będzie podzbiorem zbioru liczb rzeczywistych. Symbolem X∈A oznaczamy zbiór tych

wszystkich zdarzeń elementarnych którym zmienna losowaBłąd! Nie zdefiniowano zakładki. X

przyporządkowuje liczby naleŜące do zbioru A. PowyŜszą definicję i jej niektóre szczególne przypadki przedstawiamy w poniŜszej tabeli.

Tabela 6.1. Wybrane definicje

Symbol Definicja symbolu

X∈A A)(X: ∈ωω X = a a)(X: =ωω

aX < a)(X: <ωω

bXa <≤ b)(Xa: <ω≤ω

Przykład 6.1

Rzut kością. 654321 ,,,,, ωωωωωω=Ω . Przyporządkowanie

6

,

5

,

4

,

3

,

2

,

1

654321

↓↓↓↓↓↓

ωωωωωω

jest zmienną losową o zbiorze wartości 1, 2, 3, 4, 5, 6. Zmienną tą oznaczymy X.

Przyporządkowanie

1

,

1

,

0

,

1

,

1

,

1

654321

↓↓↓

ωωωωωω

jest takŜe zmienną losową o zbiorze wartości -1, 0, 1, oznaczymy ją Y. Zmienna losowa X moŜe słuŜyć do opisu sytuacji w której interesuje nas liczba wyrzuconych oczek na kości. Natomiast zmienna losowa Y moŜe opisywać następującą sytuację: rzucamy kością, jeśli wyrzucimy 1 lub 2 lub 3 oczka, to płacimy 1 zł, jeśli wyrzucimy 4 oczka to nic nie płacimy i nic nie otrzymujemy, jeśli wyrzucimy 5 lub 6 oczek, to otrzymujemy 1 zł. Wtedy Y oznacza wygraną w tej grze.

PoniŜsze zaleŜności ilustrują symbole podane w tabeli 6.1.

( ) ( ) ( )2

1

6

3,,P6,4,2)(X:P6,4,2XP 642 ==ωωω=∈ωω=∈

9 PowyŜsza definicja jest ścisła, gdy kaŜdy podzbiór zbioru zdarzeń elementarnych jest zdarzeniem losowym. Gdy tak

nie jest, to definicję zmiennej losowej naleŜy uzupełnić pewnym warunkiem , spełnionym na ogół w zagadnieniach praktycznych, patrz np. R. Leitner, J. Zacharski Matematyka dla studentów, cz. III str.182-183, WNT 1998, wydanie VIII.

Page 20: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

20

( ) ( ) ( )6

1P3)(X:P3XP 3 =ω==ωω==

( ) ( ) ( )3

1

6

2,P3)(X:P3XP 21 ==ωω=<ωω=<

( ) ( ) ( ) 0P7)(X:P7XP =∅=≥ωω=≥

( ) ( ) ( )2

1

6

3,,P5)(X2:P5X2P 432 ==ωωω=<ω≤ω=<≤

( ) ( ) 1)(P6)(X1:P6X1P =Ω=≤ω≤ω=≤≤

( ) ( ) ( )3

1

6

2,P3)(X:P3XP 21 ==ωω=<ωω=<

( ) ( ) ( )2

1

6

3ω,ω,ωP1)(Y:P1YP 321 ===−=ωω=−=

( ) ( ) ( )6

1P0)(Y:P0YP 4 =ω==ωω==

( ) ( ) ( )3

1

6

2,P1)(Y:P1YP 65 ==ωω==ωω==

Przykład 6.2

Partia towaru składa się ze sztuk dobrych i wadliwych. Z partii tej pobieramy losowo jedną sztukę towaru, wtedy Ω = d, w. Zdarzeniu elementarnemu d, polegającemu na wybraniu sztuki dobrej, przyporządkujmy liczbę 0, zaś zdarzeniu elementarnemu w - wybrana sztuka jest wadliwa - liczbę 1. Została określona w ten sposób zmienna losowa X, przyjmująca dwie wartości x1 = 0 i x2 = 1.

Przykład 6.3

Zajmując się badaniem monet znajdujących się w obiegu i wyprodukowanych w latach 2000 – 2005 w zaleŜności od ich wieku, najwygodniej jest uŜywać jako zmienną losową rok emisji. Zbiorem wartości tej zmiennej losowej jest zbiór 2000, 2001, 2002, 2003, 2004, 2005.

Przykład 6.4

Strzelec strzela tak długo aŜ trafi do celu. Zbiór zdarzeń elementarnych, określamy następująco Ω = ω1, ω2,...)

gdzie zdarzenie elementarne ωn (n = 1, 2, ...) oznacza, Ŝe strzelec trafił do celu pierwszy raz w n - tym strzale.

Zdarzeniu elementarnemu ωn przyporządkujemy liczbę n. Zbiorem wartości tak określonej zmiennej losowej jest zbiór wszystkich liczb naturalnych.

Przykład 6.5

Pomiar wielkości fizycznej. Jeśli nie wiemy nawet w przybliŜeniu, jakie moŜna otrzymać wyniki pomiarów pewnej nieznanej wielkości fizycznej, to przyjmujemy, Ŝe mogą one wyrazić się dowolnymi liczbami rzeczywistymi. W tym przypadku zbiorem zdarzeń elementarnych Ω jest zbiór wszystkich liczb rzeczywistych

Ω = (-∞, ∞) Na tym zbiorze określimy zmienną losową X następująco: kaŜdej liczbie rzeczywistej x przyporządkujemy tę samą liczbę x. Zbiorem wartości tej zmiennej losowej jest zbiór wszystkich liczb rzeczywistych.

Zmienne losowe pozwalają przedstawiać wyniki doświadczeń losowych za pomocą liczb, co znacznie ułatwia badanie tych doświadczeń i pozwala traktować je jednolicie. Na tym samym zbiorze zdarzeń elementarnych Ω moŜna określać róŜne zmienne losowe w zaleŜności od zagadnienia, które nas interesuje (przykład 6.1).

Page 21: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

21

6.1.2. Zbiory przeliczalne i nieprzeliczalne

Zbiór nieskończony (tzn. mający nieskończoną liczbę elementów) nazywamy zbiorem przeliczalnym, jeŜeli wszystkie jego elementy moŜna ustawić w jeden ciąg, czyli gdy zbiór ten jest równoliczny ze zbiorem liczb naturalnych. Natomiast zbiór nieskończony, którego wszystkich elementów nie moŜna ustawić w jeden ciąg, nazywamy zbiorem nieprzeliczalnym. Dowodzi się, Ŝe zbiór liczb wymiernych jest przeliczalny, natomiast zbiór liczb rzeczywistych jest nieprzeliczalny, co więcej - zbiór liczb rzeczywistych z dowolnego przedziału (a ,b) jest zbiorem nieprzeliczalnym. Zmienne losowe z przykładów 6.1, 6.2 i 6.3 mają zbiory wartości skończone, zmienna losowa z przykładu 6.4 ma zbiór wartości przeliczalny, natomiast zmienna losowa z przykładu 6.5 - nieprzeliczalny.

6.1.3. Zmienne losowe skokowe

Punkt skokowy. Skok

Jeśli

( )P X a p= = >0

to liczbę a nazywamy punktem skokowym zmiennej losowej X, zaś p skokiem w tym punkcie.

Przykład 6.6

Punktami skokowymi zmiennej losowej X z przykładu 6.1 są liczby 1, 2, 3, 4, 5, 6. W kaŜdym z tych punktów skok wynosi 1/6. Suma wszystkich skoków jest równa 1. Punktami skokowymi zmiennej losowej Y z tegoŜ przykładu są liczby –1, 0, 1, zaś skoki wynoszą odpowiednio 1/2, 1/6 i 1/3. Suma skoków jest równa 1.

Pojęcie zmiennej losowej skokowej

Zmienna losowa skokowa jest to zmienna losowa, której suma skoków jest równa 110.

Przykład 6.7

Zmienne losowe X i Y z przykładu 6.1 są zmiennymi losowymi skokowymi (patrz przykład 6.6).

Funkcja prawdopodobieństwa

Funkcja prawdopodobieństwa zmiennej losowej skokowej X jest to przyporządkowanie kaŜdemu punktowi skokowemu ix skoku ip w tym punkcie, co zapisujemy wzorem

i iP(X x ) p = =

lub tabelą

ix 1x 2x 3x ...

ip 1p 2p 3p ...

Przykład 6.8

Funkcję prawdopodobieństwa zmiennej losowej X z przykładu 6.1 moŜna przedstawić wzorem

( ) 1P X i

6= = dla i = 1, 2, ... , 6

natomiast funkcję prawdopodobieństwa zmiennej losowej Y z tego przykładu tabelą

iy -1 0 1

ip 1

2

1

6

1

3

10 Zmienną losową skokowa definiuje się takŜe jako zmienną losową, której zbiór wartości jest skończony lub

przeliczalny.

Page 22: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

22

Własności funkcji prawdopodobieństwa zmiennej losowej skokowej 01 dziedziną funkcji jest co najwyŜej przeliczalny podzbiór zbioru liczb rzeczywistych, 02 wartościami funkcji są liczby nieujemne o sumie równej 1.

KaŜda funkcja spełniająca dwa powyŜsze warunki jest funkcją prawdopodobieństwa pewnej zmiennej losowej skokowej. Funkcja prawdopodobieństwa zmiennej losowej skokowej X wyznacza prawdopodobieństwo

i

ii

x A

P(X A) p

∈ = ∑

gdzie A oznacza dowolny podzbiór zbioru liczb rzeczywistych, natomiast sumowanie obejmuje te wskaźniki i, dla których punkt skokowy ix naleŜy do zbioru A.

Przykład 6.9

Dla jakich wartości c funkcja

k 1f (k) c(1 p) −= − , k = 1, 2, 3, ... ; p (0;1)∈ jest funkcją prawdopodobieństwa pewnej zmiennej losowej skokowej X?

Rozwiązanie

PoniewaŜ dziedziną funkcji f jest zbiór liczb naturalnych (zbiór przeliczalny), więc by funkcja f była funkcją prawdopodobieństwa wystarczy by suma jej wartości była równa 1 i by wartości te były dodatnie.

k 1

k 1

c c1 f (k) c(1 p)

1 (1 p) p

∞ −

== = − = =∑ ∑

− −

Stąd c = p.

Przykład 6.10

Wyznaczymy c tak, by funkcja P(X = k) = kc

3, k =1, 2, 3, … była funkcją prawdopodobieństwa

zmiennej losowej skokowej X.

Rozwiązanie

Jest oczywiste, Ŝe funkcja ta spełnia warunek 01 (ppkt 6.1.3.). Aby spełniała takŜe warunek 02

musi być c>0 i ∑∞

=1kk3

c=1. Z tej ostatniej równości wyznaczymy c, korzystając ze wzoru na sumę

szeregu geometrycznego.

∑∞

=1kk3

c = c∑

=1kk3

1= c

3

11

3

1

− =

2

c

więc c

2 = 1, czyli c = 2.

Page 23: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

23

6.1.4. Dystrybuanta

Pojęcie dystrybuanty

Dystrybuantą zmiennej losowej X nazywamy funkcję F(x) określoną wzorem

F(x) = P(X < x) dla x∈R

Dystrybuanta zmiennej losowej skokowej X o funkcji prawdopodobieństwa

P(X = xi) = pi

wyraŜa się wzorem F(x) = ∑

<xix:iip

przy czym sumowanie rozciąga się na składniki pi o wskaźnikach, dla których spełnione są nierówności xi < x. Z powyŜszego wzoru wynika, Ŝe dystrybuanta zmiennej losowej skokowej X jest funkcją przedziałami stałą i w skończonej lub przeliczalnej liczbie punktów, które są wartościami tej zmiennej, ma skoki równe prawdopodobieństwom, z którymi X te wartości przyjmuje.

I n t e r p r e t a c j a

Interpretując prawdopodobieństwo jako masę jednostkową rozłoŜoną na osi Ox stwierdzamy, Ŝe dla kaŜdego x∈ R dystrybuanta F(x) oznacza masę prawdopodobieństwa rozłoŜoną w przedziale ( )x;∞− .

Przykład 6.11

Zmienna losowa X przyjmuje wartości x1=–1, x2=1, x3=4 odpowiednio z prawdopodobieństwami

p1 =5

1, p2 =

5

3, p3 =

5

1. Znajdziemy dystrybuantę zmiennej losowej X.

Rozwiązanie

F(x) = ∑<xix:i

pi =

>=++

≤<=+

≤<−

−≤

4xdla15

1

5

3

5

1

4x1dla5

4

5

3

5

1

1x1dla5

11xdla0

Wykres dystrybuanty przedstawiono na poniŜszym rysunku – rys. 6.1.

Rys. 6.1

Page 24: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

24

Własności dystrybuanty

Dystrybuanta F(x) ma własności:

a) F(x) jest funkcją niemalejącą;

b) F(x) jest funkcją lewostronnie ciągłą, tzn. limax −→

F(x) = F(a)

c) F(-∞) = 0, F(+∞) = 1, co jest skrótem zapisu )x(Flimx −∞→

= 0 i )x(Flimx ∞→

=1

d) P(a ≤ X < b) = F(b) - F(a)

e) P(X = a) = limax +→

F(x) - F(a)

czyli prawdopodobieństwo, Ŝe zmienna losowa X przyjmie wartość a jest równe skokowi dystrybuanty w tym punkcie (tzn. róŜnicy granicy prawostronnej dystrybuanty i jej wartości w punkcie a);

f) jeśli a jest punktem ciągłości dystrybuanty F, to

P(X = a) = 0

KaŜda funkcja F spełniająca warunki a), b) i c) jest dystrybuantą pewnej zmiennej losowej X.

Przykład 6.12

Zmienna losowa skokowa ma dystrybuantę

F(x) =

>

≤<

≤<

≤<−

−≤

3xdla1

3x2dla7

6

2x0dla7

4

0x2dla7

12xdla0

Znajdziemy funkcję prawdopodobieństwa tej zmiennej losowej.

Rozwiązanie

Zmienna losowa przyjmuje z dodatnimi prawdopodobieństwami tylko te wartości, w których dystrybuanta ma skok. Są nimi liczby x1 = -2, x2 = 0, x3 = 2, x4 = 3. Prawdopodobieństwa, z którymi zmienna lososowa przyjmuje te wartości są równe skokom dystrybuanty w punktach x1, x2, x3, x4, więc

p1 = 7

1 - 0 =

7

1, p2 =

7

4 -

7

1 =

7

3, p3 =

7

6 -

7

4 =

7

2, p4 = 1 -

7

6 =

7

1.

Otrzymaną funkcję prawdopodobieństwa przedstawiamy w poniŜszej tabeli.

kx -2 0 2 3

kp 7

1

7

3

7

2

7

1

Uogólniając postępowanie zademonstrowane w przykładach 6.11 i 6.12 moŜna stwierdzić, Ŝe:

Między dystrybuantą zmiennej losowej skokowej X i jej funkcją prawdopodobieństwa istnieje

wzajemnie jednoznaczna odpowiedniość

– dystrybuancie zmiennej X odpowiada funkcja prawdopodobieństwa,

- funkcji prawdopodobieństwa zmiennej X odpowiada dystrybuanta.

Page 25: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

25

Wynika stąd, Ŝe rozkład prawdopodobieństwa zmiennej losowej skokowej X moŜna określać za

pomocą jej funkcji prawdopodobieństwa, tj. funkcji spełniającej warunki 01 i 02 . Jest to znacznie prostsze niŜ określanie rozkładu zmiennej losowej za pomocą dystrybuanty.

Prawdopodobieństwa wyznaczone za pomocą dystrybuanty

1. P(X a) F(a)< = (6.1)

2. P(a X b) F(b) F(a)≤ < = − (6.2)

3. P(X b) 1 F(b)≥ = − (6.3)

4. P(X a) F(a 0) F(a)= = + − (6.4) F (a+0) oznacza granicę prawostronną dystrybuanty F w punkcie a, natomiast F(a 0) F(a)+ − skok dystrybuanty w punkcie a.

PowyŜsze własności pozwalają wyznaczyć za pomocą dystrybuanty prawdopodobieństwo przyjęcia wartości przez zmienną losowa z dowolnego przedziału.

Przykład 6.13

( ) ( )P(a X b) P(a X b) P(X a) F(b) F(a) F(a 0) F(a) F(b) F(a 0)< < = ≤ < − = = − − + − = − +

Przykłady dystrybuant

Przykład 6.14

Funkcje, których wykresy przedstawione są na rysunkach 6.2, 6.3 i 6.4 są niemalejące, lewostronnie ciągłe i mają granice: w - ∞ równą 0 i w ∞ równą 1, są więc wykresami dystrybuant pewnych zmiennych losowych . Zmienne te oznaczmy X, Y i Z

Rys. 6.2 Rys. 6. 3 Rys. 6.4

Ze wzoru (6.4) wynika, Ŝe zmienna losowa przyjmuje z dodatnimi prawdopodobieństwami tylko te wartości, w których dystrybuanta ma skok, przy czym skok ten jest równy prawdopodobieństwu, z którym zmienna losowa tę wartość przyjmuje.

Zmienna losowa X przyjmuje z dodatnim prawdopodobieństwem wartości 421 321 === x,x,x ,

przy czym 1 22 4 2 2

p , p5 5 5 5

= = − = , 34 1

p 15 5

= − = . PoniewaŜ 1 2 3p p p 1+ + = , więc zmienna

losowa X jest skokowa o funkcji prawdopodobieństwa

ix 1 2 4

ip 2

5

2

5

1

5

Zmienna losowa Y nie przyjmuje Ŝadnej wartości z dodatnim prawdopodobieństwem, gdyŜ jej dystrybuanta nie ma punktów skokowych (jest funkcją ciągłą). Zmienna losowa Y nie jest więc

Page 26: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

26

zmienną losową skokową. Zmienna losowa Z przyjmuje wartość 21 −=x z prawdopodobieństwem

11 1

p 06 6

= − = oraz wartość 22 =x z prawdopodobieństwem 22 1

p 13 3

= − = . PoniewaŜ

1 21 1

p p 16 3

+ = + ≠ , więc zmienna losowa Z nie jest skokowa.

6.1.5. Zmienne losowe ciągłe

Pojęcie zmiennej losowej ciągłej

Zmienna losowa ciągła jest to zmienna losowa11, której dystrybuantę F moŜna przedstawić w postaci

F(x) = ∫∞−

x

dt)t(f

gdzie: f jest pewną funkcja nieujemną zwaną gęstością prawdopodobieństwa (krótko: gęstością)

zmiennej losowej X.

Gęstość moŜna wyrazić za pomocą dystrybuanty następującym wzorem

=przypadku przeciwnym w0

istnieje tapochodnagdy )x('F)x(f

Z własności f) dystrybuanty wnosimy, Ŝe zmienna losowa ciągła przyjmuje kaŜdą pojedynczą wartość z prawdopodobieństwem równym zeru, natomiast

P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a < X < b) = P (a ≤ X < b) = F (b) – F (a) = ∫b

a

dx)x(f

Interpretacja geometryczna powyŜszych równości: prawdopodobieństwo, Ŝe zmienna losowa X przyjmuje wartości z dowolnego przedziału jest równe polu obszaru ograniczonego wykresem gęstości, osią OX oraz prostymi x = a i x = b, rys. 6.5.

Własności gęstości

Interpretacja gęstości:

Gęstość jest miarą prawdopodobieństwa wystąpienia wartości zmiennej losowej z przedziału [x, x + dx), czyli dx)x(f)dxxXx(P ≅+<≤ dx - mały przyrost argumentu x.

KaŜda funkcja spełniająca warunki a), b) jest gęstością pewnej zmiennej losowej.

Przykład 6.15

Prostym przykładem dystrybuanty zmiennej losowej jest pozycja kątowa wskazówki zegara, odczytywana w losowych przedziałach czasu - rys. 6.6. Odpowiadająca jej gęstość f(x) jest funkcją stałą – rys. 6.7.

11 Ciągła zmienna losowa przyjmuje warości z określonego przedziału – moŜe to być podstawą jej określenia.

Rys. 6.5

Gęstość f(x) ma następujące własności: a) f(x) jest funkcją nieujemną f(x) ≥ 0

dla x∈R b) Funkcja f(x) jest całkowalna na R

i ∫∞

∞−

= 1dx)x(f .

Interpretacja geometryczna: pole obszaru ograniczonego wykresem gęstości i osią OX jest równe 1.

Page 27: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

27

360 xdla

360x0 dla

0 xdla

1360

x0

)xX(P)x(F

>

≤<

=<=

== 0

360

1)x('F)x(f

Rys. 6.6 Rys. 6.7

Przykład 6.16

Wyznaczymy tak stałą c, by funkcja

f(x) =

<<

20

20

002

xdla

xdlacx

xdla

była gęstością pewnej zmiennej losowej X.

Rozwiązanie

Z warunku b) mamy

1 = ∫∞

∞−

dx)x(f = ∫∞−

0

dx0 + ∫2

0

2dxcx + ∫∞

2

dx0 = c0

2

3

x3= c

3

8

więc 3

8c = 1, czyli c =

8

3. Gdy c =

8

3 spełnione są takŜe warunki a) i b) na gęstość.

Czyli c = 8

3

Przykład 6.17

Zmienna losowa X ma gęstość

f (x) =

<<

2dla0

20dla8

30dla0

2

x

xx

x

Znajdziemy dystrybuantę zmiennej losowej X.

Rozwiązanie

Korzystamy ze wzoru

F(x) = ∫∞−

x

dt)t(f

dla ( )00 360 ;0x ∈

dla pozostałych x

Page 28: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

28

Rys 6.8 Rys 6.9 Rys 6.10

Dla x ≤ 0 (rys.6.8)

F(x) = ∫∞−

x

dt)t(f = ∫∞−

0

dt0 = 0,

Dla 0 <x < 2 (rys.6.9)

F(x) = ∫∞−

x

dt)t(f = ∫∞−

0

dt0 + ∫x

0

2dtt8

3 = 3x

8

1

Dla x ≥ 2 (rys. 6.10)

F(x) = ∫∞−

x

dt)t(f = ∫∞−

0

dt + ∫2

0

2dtt8

3 + ∫

x

2

dt0 = 1

Zestawiając powyŜsze wyniki otrzymujemy (rys. 6.11): F(x) =

<<

2dla1

20dla8

10dla0

3

x

xx

x

Rys.6.11

Wyznaczanie prawdopodobieństwa za pomocą gęstości

1. P(X < a) = a

f (x)dx−∞∫

2. b

aP(a X b) f (x)dx≤ < = ∫

3. b

P(X b) f (x)dx∞

≥ = ∫

Z ciągłości dystrybuanty i z jej własności (6.4) wynika, Ŝe dla zmiennej losowej ciągłej prawdopodobieństwo P(X =a) = 0 dla a R∈ .

Zatem w równościach (6.1 – 6.3) znaki nierówności ≤, ≥ moŜna zastąpić znakami < , >, natomiast znak < moŜna zastąpić znakiem ≤.

Page 29: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

29

Przykład 6.18

Zmienna losowa ciągła X ma gęstość

2x dla 0 x 1

f (x)0 dla pozostalych x

< <=

Obliczymy prawdopodobieństwa 1 1

P X4 2

< <

, 3

P X4

>

.

Rozwiązanie

11 12 222 2 2

1 1

4 4

1 1 1 1 1 1 3P X f (x)dx 2xdx x

4 2 2 4 4 16 161

4

< < = = = = − = − =∫ ∫

212 2

3 3 14 4

13 3 7

P X f (x)dx 2xdx 0dx x 14 4 16

3

4

∞ ∞ > = = + = = − =∫ ∫ ∫

Obliczone prawdopodobieństwa zilustrowane są na rys. 6.12

Rys.6.12

6.2. Zmienne losowe dwuwymiarowe

6.2.1. Pojęcie zmiennej losowej dwuwymiarowej

Jeśli na zbiorze zdarzeń elementarnych Ω określimy dwie zmienne losowe X i Y, to uporządkowaną parę (X, Y) nazywamy zmienną losową dwuwymiarową. Zmienna losowa dwuwymiarowa jest więc przyporządkowaniem kaŜdemu zdarzeniu elementarnemu uporządkowanej pary liczb rzeczywistych (x, y). Pary te nazywamy wartościami zmiennej losowej dwuwymiarowej (X, Y), są one punktami płaszczyzny.

Niech A będzie podzbiorem płaszczyzny. Symbolem A)Y,X( ∈ oznaczamy zbiór tych wszystkich zdarzeń elementarnych, dla których zmienna losowa (X,Y) przyjmuje wartości ze zbioru A. PowyŜszą definicję i jej niektóre szczególne przypadki przedstawiamy w poniŜszej tabeli.

Tabela 6.2. Przykładowe definicje

Symbol Definicja symbolu A)Y,X( ∈ A))ω(Y),ω(X(:ω ∈

)bY,aX( == b)ω(Yia)ω(X:ω ==

)yY,xX( << y)ω(Yix)ω(X:ω <<

)yYy,xXx( 2121 <≤<≤ 2121 yω)(Yyix)ω(Xx:ω <≤<≤

Page 30: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

30

Przykład 6.19

Doświadczenie polega na losowym wyborze liczby spośród liczb 1, 2, 3, 4, 5, 6. Zmienna losowa X przyjmuje wartość 1, gdy wylosowano liczbę parzystą lub wartość 0, gdy wylosowano liczbę nieparzystą. Zmienna losowa Y przyjmuje wartość 1, gdy wylosowano liczbę podzielną przez 3 lub wartość 0, gdy wylosowano liczbę niepodzielną przez 3.

1

6

1

0

,5

0

1

,4

0

0

,3

1

1

,2

0

0

,1

0

:

:

X

Y

Para (X,Y) jest zmienną losową dwuwymiarową o zbiorze wartości )1,1(),0,1(),1,0(),0,0( Mamy

3

1)5,1(P)0Y,0X(P ====

6

1)3(P)1Y,0X(P ====

3

1)4,2(P)0Y,1X(P ====

6

1)6(P)1Y,1X(P ====

0)(P)0Y,0X(P =∅=<< 1)(P)0Y,0X(P =Ω=≥≥

Przykład 6.20

Dwukrotny rzut monetą. Ω = (O, O), (O, R), (R, O), (R, R). Zdarzeniom elementarnym (O, O), (O, R), (R, O), (R, R) przyporządkujmy odpowiednio pary liczb (1, 1), (1, 0), (0, 1), (0, 0). Została w ten sposób określona zmienna losowa dwuwymiarowa (X, Y) przyjmująca 4 wartości, przy czym

P(X = 1, Y = 1) = P((O, O)) = 4

1, P(X = 1, Y = 0) = P((O, R)) =

4

1,

P(X = 0, Y = 1) = P((R, O)) = 4

1, P(X = 0, Y = 0) = P((R, R)) =

4

1,

Przykład 6.21

Przykładem dwuwymiarowej zmiennej losowej jest wzrost i waga osób (X, Y). W tym przypadku moŜe nas interesować zaleŜność wagi Y od wzrostu X. MoŜna rozszerzyć rozpatrywane dane o wiek osób, otrzymujemy wtedy zmienną losową trójwymiarową. Kolejne rozszerzenie moŜe dotyczyć płci osób.

W przypadku ogólnym moŜna rozpatrywać zmienna losową n-wymiarową. Dla uproszenia rozwaŜań w niniejszej ksiąŜce ograniczono się do zmiennych losowych dwuwymiarowych.

Page 31: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

31

6.2.2. Dystrybuanta zmiennej losowej dwuwymiarowej

Dystrybuantą zmiennej losowej dwuwymiarowej (X,Y) nazywamy funkcję F(x,y) określoną wzorem

F(x, y) = P(X < x, Y < y) dla x,y ∈ R

I n t e r p r e t a c j a Wartość dystrybuanty zmiennej losowej dwuwymiarowej (X,Y) w punkcie (x,y) jest równa prawdopodobieństwu przyjęcia przez tą zmienną wartości z ćwiartki płaszczyzny przedstawionej na poniŜszym rysunku – rys. 6.14, bez krawędzi tej ćwiartki.

Rys. 6.14

Dystrybuanta F(x, y) zmiennej losowej dwuwymiarowej (X, Y) ma następujące własności: a) dla dowolnych punktów (x1, y1) i (x2, y2) gdzie x1< x2 i y1 < y2 zachodzi nierówność

F(x2, y2) – F(x1, y2) – F(x2, y1) + F(x1, y1) ≥ 0

b) F(x, y) jest funkcją lewostronnie ciągłą, c) F(+∞, +∞) = 1, F(–∞, –∞) = 0, F(–∞, y) = 0, F(x, –∞) = 0 d) P(x1 ≤ X < x2, y1 ≤ Y < y2) = F(x2, y2) – F(x2, y1) – F(x1, y2) + F(x1,y1) e) Funkcje FX(x) = F(x, +∞), FY(y) = F( +∞, y) są dystrybuantami odpowiednio zmiennej losowej X i zmiennej losowej Y. Funkcje FX(x) i FY(y) nazywamy takŜe dystrybuantami rozkładów brzegowych, przez co podkreślamy, Ŝe dystrybuanty te zostały otrzymane przy pomocy dystrybuanty F(x, y) zmiennej losowej dwuwymiarowej (X, Y).

KaŜda funkcja F(x, y) spełniająca warunki a), b) i c) jest dystrybuantą pewnej zmiennej losowej dwuwymiarowej (X, Y).

6.2.3. Zmienne losowe dwuwymiarowe skokowe

Punkt skokowy. Skok

Jeśli 0pb)Ya,P(X >===

to punkt (a,b) nazywamy punktem skokowym zmiennej losowej dwuwymiarowej (X,Y), zaś p skokiem w tym punkcie.

Pojęcie zmiennej losowej skokowej Zmienna losowa dwuwymiarowa skokowa jest to zmienna losowa dwuwymiarowa mająca sumę skoków równą 1. JeŜeli zmienna losowa dwuwymiarowa (X, Y) przyjmuje tylko skończoną lub przeliczalną liczbę wartości, to jest ona zmienną losową dwuwymiarową skokową

Funkcja prawdopodobieństwa Funkcja prawdopodobieństwa zmiennej losowej dwuwymiarowej skokowej (X,Y) jest to przyporządkowanie kaŜdemu punktowi skokowemu tej zmiennej skoku w tym punkcie.

Funkcję prawdopodobieństwa zmiennej losowej dwuwymiarowej skokowej (X,Y) przedstawiamy wzorem

( ) jiji pyY,xXP === i, j =1, 2, ...

lub w postaci tabeli

Page 32: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

32

jy

ix y1 y2 y3 K

x1 p11 p12 p13 K x2 p21 p22 p23 K x3 p31 p32 p33 K

K K K K K

Przykład 6.22

Zmienna losowa dwuwymiarowa (X,Y) z przykładu 6.19 jest zmienną losową dwuwymiarową skokową o funkcji prawdopodobieństwa przedstawionej w poniŜszej tabeli

jy

ix 0 1

0 3

1 6

1

1 3

1 6

1

TakŜe zmienna losowa dwuwymiarowa z przykładu 6.27 jest skokowa. Jej funkcja prawdopodobieństwa jest określona równościami zapisanymi w tym przykładzie.

Dystrybuanta zmiennej losowej dwuwymiarowej skokowej (X, Y) wyraŜa się wzorem F(x, y) = ∑∑

< <xx

i

yy

jij

i j

p

gdzie sumowanie rozciąga się na składniki pij o wskaźnikach, dla których spełnione są jednocześnie nierówności xi < x i yj < y.

Przykład 6.23

Zmienna losowa dwuwymiarowa skokowa (X,Y) ma funkcję prawdopodobieństwa określoną tabelą

jy

ix 0 1 2

0 0,2 0,1 0,3 1 0,1 0,2 0,1

F(0,5; 1,5) P(X 0,5; Y 1,5) P(X 0; Y 0) P(X 0;Y 1) 0,2 0,1 0,3= < < = = = + = = = + =

F(1, 3) P(X 1,Y 3) P(X 0,Y 0) P(X 0,Y 1) P(X 0,Y 2) 0,2 0,1 0,3 0,6= < < = = = + = = + = = = + + =

0)(P)0Y,0X(P)0,0(F =∅=<<=

1)(P)4Y,2X(F)4,2(F =Ω=<<=

6.2.4. Zmienne losowe dwuwymiarowe ciągłe

Zmienna losowa dwuwymiarowa ciągła jest to zmienna losowa dwuwymiarowa, której dystrybuantę F moŜna przedstawić w postaci

∫=

∞− ∞−

x ydtdu)u,t(f)y,x(F dla Ry,x ∈

gdzie: f jest pewną funkcją nieujemną dwóch zmiennych rzeczywistych zwaną gęstością

prawdopodobieństwa (krótko: gęstością) zmiennej losowej dwuwymiarowej (X, Y).

Page 33: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

33

Gęstość f zmiennej losowej dwuwymiarowej ciągłej jest funkcją dwóch zmiennych i ma własności 1. f jest funkcją nieujemną: Ry,xdla0)y,x(f ∈≥

2. 1dxdy)y,x(f =∫

∞−

∞−

3. Jeśli F jest dystrybuantą zmiennej losowej dwuwymiarowej ciągłej, to funkcja

∂∂∂

=przypadkuprzeciwnym w 0

istnieje tapochodna gdy )y,x(Fyx)y,x(f

2

jest gęstością tej zmiennej.

4. =<<<< )dYc,bXa(P dxdy)y,x(fb

a

d

c∫

KaŜda funkcja f spełniająca warunki 1 i 2 jest gęstością pewnej zmiennej losowej dwuwymiarowej

ciągłej.

Przykład 6.24

Sprawdzimy czy funkcja

+

=0

yx)y,x(f

jest gęstością zmiennej losowej dwuwymiarowej ciągłej.

Rozwiązanie

Funkcja f jest dodatnia wewnątrz prostokąta przedstawionego na poniŜszym rysunku – rys. 6.15 i równa zeru dla pozostałych punktów płaszczyzny, zatem spełnia warunek 1. Sprawdzimy, czy spełnia warunek 2.

Rys. 6.15

=

∫ ∫∞

∞−

∞−

dxdy)y,x(f =∫

∫ + dxdy)yx(

1

0

1

0∫

=

=

+

1

0

2

0y

1y

2

yxy dx =

1

0

1x dx

2 + = ∫

2 1x 1 1 1

x 102 2 2 2

= + = + =

Funkcja f spełnia warunek 2.

Odp. Funkcja f jest gęstością pewnej zmiennej losowej dwuwymiarowej ciągłej.

dla 1x0 << i 1y0 << dla pozostałych x

Page 34: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

34

Przykład 6.25

Niech f będzie gęstością zmiennej losowej dwuwymiarowej ciągłej (X,Y) z poprzedniego przykładu. Wtedy

=∫

=

=

+=∫

∫ +=

<<=

2

1

0

22

1

0

4

3

0dt

0u

4

3u

2

utudtdu)ut(

4

3Y,

2

1XP

4

3,

2

1F

=64

15

64

9

32

3

0

2

1

t32

9t

8

3dt

32

9t

4

3 22

1

0=+=

+=∫

+

Przykład 6.26

Niech f będzie gęstością zmiennej losowej dwuwymiarowej ciągłej (X,Y) z przykładu 6.31.

Obliczymy prawdopodobieństwo

<<<<2

1Y0,

2

1X

4

1P .

Rozwiązanie

1 1 1 1 122 2 2 2 2

1 1 10 04 4 4

12

2

1

4

1y

21 1 1 y

P X , 0 Y f (x, y)dy dx (x y)dy dx xy dx4 2 2 2

y 0

11 1 1 1 1 1 1 1 52x dx x x

12 8 4 8 16 16 64 32 64

4

= < < < < = = + = + =

=

= + = + = + − + =

∫ ∫ ∫ ∫ ∫

5.2.5. Rozkłady brzegowe

MoŜna udowodnić, Ŝe rozkład prawdopodobieństwa zmiennej losowej dwuwymiarowej (X,Y) wyznacza rozkład zmiennej losowej X i rozkład zmiennej losowej Y.

Rozkłady brzegowe zmiennych losowych X i Y są to rozkłady prawdopodobieństwa tych zmiennych wyznaczone za pomocą rozkładu zmiennej losowej dwuwymiarowej (X,Y).

Przypadek zmiennych losowych skokowych

Jeśli (X,Y ) jest zmienną losową dwuwymiarową skokową o funkcji prawdopodobieństwa

ijji p)yY,xX(P === dla i, j = 1,2, ...

to X jest zmienną losową skokową o funkcji prawdopodobieństwa

.ii p)xX(P == funkcja prawdopodobieństwa brzegowa zm. los. X

gdzie ∑=j

ij.i pp dla i = 1,2, ...,

takŜe Y jest zmienną losową skokową o funkcji prawdopodobieństwa

j.j p)yY(P == funkcja prawdopodobieństwa brzegowa zm. los. Y

gdzie ∑=i

ijj. pp dla j= 1,2, ....

Page 35: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

35

Jeśli funkcję prawdopodobieństwa zmiennej losowej dwuwymiarowej skokowej (X,Y) przedstawimy w tabeli

jy

ix

1y

2y

3y K

1x 11p 12p 13p K

2x 21p 22p 23p K

3x 31p 32p 33p K K K K K K

to prawdopodobieństwo .1p jest sumą prawdopodobieństw z pierwszego wiersza tej tabeli,

prawdopodobieństwo .2p jest sumą prawdopodobieństw z drugiego wiersza itd., natomiast

prawdopodobieństwo 1.p jest sumą prawdopodobieństw z pierwszej kolumny, 2.p jest sumą prawdopodobieństw z drugiej kolumny powyŜszej tabeli itd. Dlatego prawdopodobieństwa te wygodnie jest przedstawić w dodatkowym wierszu i w dodatkowej kolumnie tej tabeli.

jy

ix

1y

2y

3y

⋅ip

1x 11p 12p 13p K .1p

2x 21p 22p 23p K .2p

3x 31p 32p 33p K .3p

K K K K

j.p 1.p 2.p 3.p

Kolumna tytułowa wraz z ostatnią kolumną (po transponowaniu) tworzą funkcję prawdopodobieństwa brzegową zmiennej losowej X

ix 1x 2x 3x K

.ip .1p .2p .3p K

Podobnie wiersz tytułowy z ostatnim wierszem tworzą funkcję prawdopodobieństwa brzegową zmiennej losowej Y.

iy 1y 2y 3y K

j.p 1.p 2.p 3.p K

Przykład 6.27

Zmienna losowa dwuwymiarowa skokowa ma funkcję prawdopodobieństwa określoną w tabeli:

yj xi

-1 0 1

1 11

1

11

3

11

2

3 11

2

11

1

11

2

Znajdziemy funkcje prawdopodobieństwa brzegowe zmiennych losowych X i Y.

Rozwiązanie

.1p11

6

11

2

11

3

11

1)1X(P =++=== suma prawdopodobieństw z pierwszego wiersza

Page 36: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

36

.2p11

5

11

2

11

1

11

2)3X(P =++=== suma prawdopodobieństw z drugiego wiersza

Funkcja prawdopodobieństwa brzegowa zmiennej losowej X

ix 1 3

.ip 11

6 11

5

1.p =11

3

11

2

11

1)1Y(P =+=−= suma prawdopodobieństw z pierwszej kolumny

2.p =11

4

11

1

11

3)0Y(P =+== suma prawdopodobieństw z drugiej kolumny

3.p =11

4

11

2

11

2)1Y(P =+== suma prawdopodobieństw z trzeciej kolumny

Funkcja prawdopodobieństwa zmiennej losowej Y

iy –1 0 1

j.p 11

3

11

4

11

4

Obliczone prawdopodobieństwa przedstawimy na brzegu tabeli określającej funkcję prawdopodobieństwa.

yj

ix –1 0 1 .ip

1 11

1

11

3

11

2

11

6

3 11

2

11

1

11

2

11

5

j.p 11

3

11

4

11

4 Suma

=1

Przykład 6.28

Zmienna losowa X oznacza cenę komputera (w zł), Y oznacza liczbę awarii tego komputera w czasie T. Wiadomo, Ŝe zmienna losowa dwuwymiarowa (X,Y) skokowa ma funkcję prawdopodobieństwa przedstawioną w tabeli

jy

ix

0

1

2

3

4

5

.ip

2 0,01 0,02 0,02 0,06 0,06 0,17 3 0,01 0,02 0,03 0,02 0,05 0,04 0,17 4 0,02 0,03 0,04 0,04 0,04 0,17 5 0,03 0,05 0,05 0,01 0,03 0,17 6 0,04 0,07 0,04 0,01 0,16 7 0,05 0,08 0,03 0,16

j.p 0,15 0,26 0,21 0,1 0,18 0,1 Suma

1

Page 37: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

37

Funkcja prawdopodobieństwa brzegowa zmiennej losowej X Struktura komputerów wg ceny

ix 2 3 4 5 6 7

.ip 0,17 0,17 0,17 0,17 0,16 0,16

Funkcja prawdopodobieństwa brzegowa zmiennej losowej Y Struktura komputerów wg l iczby awari i

jy 0 1 2 3 4 5

j.p 0,15 0,26 0,21 0,1 0,18 0,1

Przypadek zmiennych losowych c iągłych

JeŜeli zmienna losowa dwuwymiarowa ciągła (X, Y) ma gęstość f(x, y), to gęstość fX(x) zmiennej losowej X wyraŜa się wzorem

fX(x) = ∫∞

∞−dy)y,x(f

zaś gęstość fY(y) zmiennej losowej Y wyraŜa się wzorem

fY(y) = ∫∞

∞−

dx)y,x(f

Otrzymane w powyŜszy sposób gęstości fX(x) i fY(y) zmiennych losowych X i Y nazywamy gęstościami rozkładów brzegowych tych zmiennych losowych.

Przykład 6.29

Zmienna losowa dwuwymiarowa ciągła (X, Y) ma gęstość

f(x, y) =

0

xy8

Znaleźć gęstości rozkładów brzegowych zmiennych losowych X i Y.

Rozwiązanie

Zbiór punktów płaszczyzny Oxy, dla których gęstość f(x, y) jest dodatnia, moŜe być opisany nierównościami.

−<<

<<2x1y0

1x0

Dla 0 < x < 1 gęstość zmiennej losowej x

fX(x) = ∫ ∫∞

∞−

−==2x1

0

2 )x1(x4xydy8dy)y,x(f

Rys. 6.16.

Natomiast dla x ≥ 1 lub x ≤ 0 gęstość f(x, y) = 0, więc takŜe fX(x) = 0, ostatecznie

fX(x) = 2

0 dla x 0

4x(1 x ) dla 0 x 1

0 dla x 1

− < < ≥

dla 0x > , 0y > i 1yx 22 <+ dla pozostałych x i y

Page 38: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

38

Analogicznie postępując otrzymujemy, Ŝe gęstość fY(y) zmiennej losowej Y wyraŜa się wzorem

fY(y) = 2

0 dla y 0

4y(1 y ) dla 0 y 1

0 dla y 1

− < < ≥

Przypadek dowolnych zmiennych losowych

Jeśli zmienna losowa dwuwymiarowa (X,Y) ma dystrybuantę F(x, y), to zmienna losowa X ma dystrybuantę )x(FX = ),x(F ∞ dla Rx ∈ dystrybuanta brzegowa zmiennej losowej X

zaś zmienna losowa Y ma dystrybuantę )y(FY = )y,(F ∞ dla Ry ∈ dystrybuanta brzegowa zmiennej losowej Y

Przykład 6.30

Zmienna losowa dwuwymiarowa (X, Y) ma dystrybuantę F(x,y)

0 dla x 0 lub 0 y 1

1dla 0 x 1 i 0 y 1

61

F(x, y) dla 0 x 1 i y 127

dla x 1 i 0 y 1151 dla x 1 i y 1

≤ < ≤ < ≤ < ≤

= < ≤ >

> < ≤

> >

Wyznaczymy dystrybuanty brzegowe zmiennej losowej X oraz Y.

Rozwiązanie Warstwowy wykres dystrybuanty zmiennej losowej dwuwymiarowej ma postać

Rys. 6.19

Symbol ( )∞,xF oznacza granicę dystrybuanty ( )y,xF , gdy ∞→y , przy stałej wartości x.

Page 39: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

39

Na rysunku 6.20 strzałkami (z przerywanej linii) oznaczone są drogi dąŜenia do nieskończoności zmiennej y, dla ustalonych wartości x, w poszczególnych przedziałach.

.

Rys. 6.20

Z rysunku wynika, Ŝe dla 0≤x mamy ( )∞,xF =0; dla 0< 1≤x mamy ( )∞,xF = ½; dla x > 1 mamy

( )∞,xF =1, zatem

( ) ( )

>

≤<

=∞=

1xdla1

1x0dla2/1

0xdla0

,xFxFX

Analogicznie moŜna wyznaczyć dystrybuantę zmiennej losowej Y

( ) ( )

>

≤<

=∞=

1ydla1

1y0dla15/7

0ydla0

y,FxFY

6.2.6. Rozkłady warunkowe

Przypadek zmiennych losowych skokowych

Dwuwymiarowa zmienna losowa skokowa (X, Y) ma funkcję prawdopodobieństwa

P(X = xi, Y = yj) = pij

Symbolem X/Y = yj (czytaj: X pod warunkiem, Ŝe Y równa się yj) oznaczamy zmienną losową skokową mającą funkcję prawdopodobieństwa

P(X = xi/Y = yj) = i j ij

j .j

P(X x ,Y y ) p

P(Y y ) p

= ==

=

przy czym zdarzenie Y = yj jest ustalone, natomiast xi przebiega wszystkie wartości przyjmowane przez zmienną losową X, dla których prawa strona powyŜszego wzoru jest dodatnia. Symbolem Y/X = xi oznaczamy zmienną losową, której funkcje prawdopodobieństwa wyraŜa się wzorem

P(Y = yj/ X = xi) = .i

ij

i

ji

p

p

)xX(P

)yY,xX(P=

=

==

przy czym zdarzenie X = xi jest ustalone, natomiast yj przebiega wszystkie wartości przyjmowane przez zmienną losową Y, dla których prawa strona powyŜszej równości jest dodatnia.

O zmiennych losowych X/Y = yj i Y/X = xi mówimy, Ŝe mają rozkłady warunkowe.

Page 40: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

40

Przykład 6.31

Funkcja prawdopodobieństwa dwuwymiarowej zmiennej losowej skokowej (X,Y) oraz funkcje prawdopodobieństwa brzegowe zmiennych losowych X i Y przedstawione są w tabeli

jy

ix –1 0 1 .ip

1 11

1

11

3

11

2

11

6

3 11

2

11

1

11

2

11

5

j.p 11

3

11

4

11

4 Suma

1

Wyznaczymy funkcje prawdopodobieństwa warunkowe zmiennych losowych X/ 0Y = oraz

Y/X=3.

Rozwiązanie

4

3

11

411

3

)0Y(P

)0Y,1X(P)0Y/1X(P ==

===

===

4

1

11

411

1

)0Y(P

)0Y,3X(P)0Y/3X(P ==

===

===

Funkcja prawdopodobieństwa warunkowa zmiennej losowej X/ 0Y =

ix 1 3 )0Y/xX(P i ==

4

3

4

1

5

2

11

511

2

)3X(P

)1Y,3X(P)3X/1Y(P ==

=−==

==−=

5

1

11

511

1

)3X(P

)0Y,3X(P)3X/0Y(P ==

===

===

5

2

11

511

2

)3X(P

)1Y,3X(P)3X/1Y(P ==

===

===

Page 41: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

41

Funkcja prawdopodobieństwa warunkowa zmiennej losowej 3X/Y =

jy -1 0 1

P(Y yj/ X 3)= = 5

2

5

1

5

2

Przykład 6.32

Znajdziemy rozkład awarii komputerów kosztujących 7 tys. zł oraz rozkład ceny komputerów mających 4 awarie w ciągu czasu T, dla danych z przykładu 6.35.

Rozwiązanie

NaleŜy wyznaczyć funkcje prawdopodobieństwa zmiennych losowych Y/X=7 oraz X/Y=4.

16

5

16,0

05,0)7X/0Y(P ==== ,

16

8

16,0

08,0)7X/1Y(P ==== ,

16

3

16,0

03,0)7X/2Y(P ====

Rozkład awarii komputerów kosztujących 7 tys. zł.

Funkcja prawdopodobieństwa warunkowa Y/X=7

jy 0 1 2

7)/XyP(Y j == 16

5

2

1

16

3

18

6

18,0

06,0)4Y/2X(P ==== ,

18

5

18,0

05,0)4Y/3X(P ====

,18

4

18,0

04,0)4Y/4X(P ====

18

3

18,0

03,0)4Y/5X(P ====

Rozkład ceny komputerów mających 4 awarie w czasie T

Funkcja prawdopodobieństwa zmiennej losowej X/Y=4

ix 2 3 4 5

)4Y/xX(P i == 3

1

18

5

9

2

6

1

Przypadek zmiennych losowych ciągłych

Dwuwymiarowa zmienna losowa ciągła (X, Y) ma gęstość f(x, y). Niech fX(x) i fY(y) będą gęstościami rozkładów brzegowych zmiennych losowych X i Y.

Symbolem X/Y=y0 oznaczamy zmienną losową, której gęstość fX(x/y0) wyraŜa się wzorem

fX(x/y0) = )y(f

)y,x(f

0Y

0

przy czym zakładamy, Ŝe fY(y0) ≠ 0.

Page 42: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

42

Symbolem Y/X=x0 oznaczamy zmienną losową, której gęstość fY(y/x0) wyraŜa się wzorem

fY(y/x0) = )x(f

)y,x(f

0X

0

przy czym zakładamy, Ŝe fX(x0) ≠ 0

O zmiennych losowych X/Y=y0 i Y/X=x0 mówimy, Ŝe mają rozkłady warunkowe.

Przykład 6.33

Dwuwymiarowa zmienna losowa (X, Y) ma gęstość

f(x, y) =

0

8xy

Znajdziemy gęstość zmiennej losowej Y/X = 1/2

Rozwiązanie

Gęstość zmiennej losowej X wyraŜa się wzorem (patrz przykład 6.36)

fX(x) = 2

0 dla x 0

4x(1 x ) dla 0 x 1

0 dla x 1

− < < ≥

więc 2

3

2

1fX =

. Natomiast (patrz rys. 6.16)

y,

2

1f =

0

y4

Szukana gęstość

2

1/yfY =

=

0

y3

8

2

1f

y,2

1f

1

6.2.7. Zmienne losowe niezaleŜne

Niech F(x, y), FX(x), FY(y) będą dystrybuantami odpowiednio zmiennych losowych (X, Y), X, Y. Zmienne losowe X i Y nazywamy niezaleŜnymi, jeśli

F(x, y) = FX(x)FY(y)

Jeśli (X, Y) jest dwuwymiarową zmienną losową skokową o funkcji prawdopodobieństwa

P(X=xi, Y=yj) = pij

to warunkiem koniecznym i wystarczającym niezaleŜności zmiennych losowych X i Y jest zachodzenie równości

pij = P(X = xi, Y = yj) = P(X = xi) P(Y = yj) = pi.p.j

dla kaŜdej wartości (xi ,yj) zmiennej losowej (X, Y).

JeŜeli (X, Y) jest dwuwymiarową zmienną losową ciągłą o gęstości f(x, y), zaś fX(x) i fY(y) są gęstościami zmiennych losowych X i Y, to warunkiem koniecznym i wystarczającym niezaleŜności X i Y jest zachodzenie równości

f(x, y) = fX(x) fY(y)

we wszystkich punktach ciągłości gęstości f(x, y).

dla 0x > , 0y > i 1yx 22 <+

dla pozostałych x i y

dla 2

3y0 <<

dla pozostałych y

dla 2

3y0 <<

dla pozostałych y

Page 43: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

43

Przykład 6.34

Sprawdzimy czy zmienne losowe z przykładu 6.27 są niezaleŜne. Rozwiązanie.

Z tabeli w przykładzie 6.27 odczytujemy, Ŝe P(X = 1, Y = –1) = 11

1, zaś z rozwiązania tego

przykładu mamy

P(X= 1) = 11

6 , P(Y= –1) =

11

3, więc

P(X = 1)P(X = –1) = 11

6

11

3=

121

18 ≠ P( X=1, Y=–1)

czyli zmienne losowe X i Y są zaleŜne.

Przykład 6.35

Sprawdzimy, czy zmienne losowe X i Y z przykładu 6.29 są niezaleŜne,

Rozwiązanie

Bezpośrednio widać, Ŝe fX(x) fY(y) ≠ f(x, y), więc zmienne losowe X i Y nie są niezaleŜne.

Przykład 6.36

Dwuwymiarowa zmienna losowa (X, Y) ma funkcję prawdopodobieństwa określoną tabelką.

jy

ix 0 2 3

–1 15

2

15

4

15

4

1 15

1

15

2

15

2

Sprawdzić, czy zmienne losowe X i Y są niezaleŜne.

Rozwiązanie

Postępując jak w przykładzie 6.27 otrzymujemy

P(Y = 0) = 5

1 , P(Y = 2) =

5

2 , P(Y=3) =

5

2 P(X = –1) =

3

2, P(X =1) =

3

1

Mamy

P(Y = 0) P(X = –1) =5

1·3

2=

15

2= P(Y = 0, X= –1)

P(Y = 2) P(X = –1) =5

2·3

2=

15

4= P(Y = 2, X = –1)

P(Y = 3) P(X = –1) =5

2·3

2=

15

4 = P(Y = 3, X = –1)

P(Y = 0) P(X = 1) = 5

1·3

1=

15

1= P(Y = 0) P(X = 1)

P(Y = 2) P(X = 1) = 5

2·3

1=

15

2= P(Y = 2, X = 1)

P(Y = 3) P(X = 1) = 5

2·3

1=

15

2= P(Y = 3, X = 1)

czyli zmienne losowe X i Y są niezaleŜne.

Page 44: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

44

7. PARAMETRY ROZKŁADU ZMIENNYCH LOSOWYCH

W zastosowaniach praktycznych zamiast rozpatrywać funkcje rozkładu prawdopodobieństwa, gęstość czy dystrybuantę zmiennych losowych, wystarczy nieraz ograniczyć się do wykorzystania jednego lub kilku parametrów opisujących zasadnicze właściwości rozkładu zmiennej losowej. Parametry są liczbami, które charakteryzują zmienne losowe i są związane z ich rozkładami.

W niniejszym rozdziale opisano podstawowe parametry rozkładu zmiennych losowych.

Parametry rozkładu zmiennej losowej jednowymiarowej dzielimy na dwie grupy: • Miary połoŜenia, dotyczące określonych wartości zmiennej losowej. Do miar tego typu

zaliczamy wartość oczekiwaną, medianę i dominantę ( modę). • Miary zmienności, zwane teŜ miarami rozproszenia. Przykładem miar tego typu jest wariancja

i odchylenie standardowe.

7.1. Miary połoŜenia zmiennej losowej jednowymiarowej

7.1.1. Wartość oczekiwana

Wartością oczekiwaną zmiennej losowej X nazywamy moment rzędu 1 i oznaczamy symbolami EX lub m

Tak więc:

A. Wartością oczekiwaną zmiennej losowej skokowej X przyjmującej skończoną liczbę wartości x1, x2, …, xn odpowiednio z prawdopodobieństwami p1, p2, …, pn nazywamy liczbę

∑=

=+++=n

1kkknn2211 pxpx...pxpxEX

B. Wartością oczekiwaną zmiennej losowej skokowej X przyjmującej przeliczalną liczbę wartości x1, x2 …, xn,... odpowiednio z prawdopodobieństwami p1, p2, …, pn, … nazywamy liczbę

∑∞

=

=1k

kk pxEX

przy czym zakładamy, Ŝe szereg

∑∞

=1kkk px

jest zbieŜny. Jeśli powyŜszy szereg jest rozbieŜny, to zmienna losowa X nie ma wartości oczekiwanej.

C. Wartością oczekiwaną zmiennej losowej ciągłej o gęstości f(x) nazywamy liczbę

∫∞

∞−

= dx )x(f xEX

przy czym zakładamy, Ŝe całka

∫∞

∞−

dx )x(f x

jest zbieŜna. Jeśli powyŜsza całka jest rozbieŜna, to zmienna losowa X nie ma wartości oczekiwanej.

Przykład 7.1

Zmienna losowa X oznacza liczbę wyrzuconych oczek na kości. Znajdziemy wartość oczekiwaną X.

Rozwiązanie

EX = 1 •6

1+ 2 •

6

1+ 3 •

6

1 + 4 •

6

1 + 5 •

6

1+ 6 •

6

1 = 3,5

Page 45: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

45

Przykład 7.2

Zmienna losowa skokowa X przyjmuje n wartości n21 x,...,x,x z jednakowymi prawdopodobieństwami. Znajdziemy wartość oczekiwaną tej zmiennej losowej.

Rozwiązanie

Zmienna losowa X skokowa ma funkcję prawdopodobieństwa określoną wzorem ( )n

1xXP i ==

dla i = 1, ... , n. Zatem

∑∑∑==

====n

1ii

n

1ii

iii xx

n

1

n

1xpxEX

czyli wartość oczekiwana zmiennej losowej jest w tym przypadku średnią arytmetyczną jej wartości.

Przykład 7.3

Zbadano 200 gospodarstw domowych ze względu na liczbę osób w gospodarstwie. Wyniki badania przedstawione są w szeregu rozdzielczym punktowym

Liczba osób w gospodarstwie

i

Liczebność gospodarstw, w których jest

i osób in 1 30 2 40 3 60 4 50 5 12 6 8

Suma n=200

Niech zmienna losowa X oznacza liczbę osób w gospodarstwie domowym. Znajdziemy wartość oczekiwaną tej zmiennej losowej.

Rozwiązanie

Zmienna losowa X przyjmuje wartość i dla i = 1,..., 6 z prawdopodobieństwem n

np i

i = , więc jej

funkcję prawdopodobieństwa moŜna przedstawić w tabeli

i 1 2 3 4 5 6

n

np i

i =

0,15 0,2 0,3 0,25 0,06 0,04

Zatem EX = 99,204,0606,0525,043,032,0215,01 =⋅+⋅+⋅+⋅+⋅+⋅

ZauwaŜmy, Ŝe w powyŜszym zadaniu wzór na wartość oczekiwaną przybiera postać

n

ni i

r

1i∑=

czyli ir

1ini

n

1∑=

, (r oznacza liczbę wariantów cechy X, w naszym zadaniu r = 6) zatem

wartość oczekiwana jest równa średniej waŜonej wariantów cechy X, a więc średniej arytmetycznej wszystkich danych statystycznych.

Page 46: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

46

Przykład 7.4

Zmienna losowa X ma funkcję prawdopodobieństwa

P(X = 2k) = k2

1 k = 1, 2, …

Znajdziemy wartość oczekiwaną X.

Rozwiązanie

EX = ∑∞

=

∞=1k

k

k

2

12

Zmienna losowa X nie ma wartości oczekiwanej.

Przykład 7.5

Zmienna losowa X ma gęstość

f(x) =

<<

2x dla0

2x0 dlax8

30x dla0

2

Znajdziemy wartość oczekiwaną X.

Rozwiązanie

( )2

3dx 0xdx x

8

3xdx 0xdx xf xEX

0

2

0

20

=⋅+⋅+⋅== ∫∫∫∫+∞

∞−

+∞

∞−

Przykład 7.6

Zmienna losowa X ma funkcję prawdopodobieństwa określoną tabelą

xk -2 -1 0 1 2 3 pk

8

1

8

2

8

1

8

1

8

1

8

2

Znajdziemy wartość oczekiwaną zmiennej losowej Y = X2 .

Rozwiązanie

Funkcja prawdopodobieństwa zmiennej losowej Y = X2 wyraŜa się tabelą

Y1 0 1 4 9

P1 8

1

8

3

8

2

8

2

EY = 0 • 8

1 + 1 •

8

3 + 4 •

8

2 + 9 •

8

2 = 3

8

5

Interpretacja wartości oczekiwanej Wartość oczekiwana zmiennej losowej jest rozszerzeniem pojęcia średniej arytmetycznej wartości tej zmiennej na nieskończenie wiele składników.

Własności wartości oczekiwanej12

Zakładamy, Ŝe istnieją wartości oczekiwane zmiennych losowych X i Y. a) wartość oczekiwana stałej jest równa tej stałej

Eb = b b) stałą moŜna wyłączać przed znak wartości oczekiwanej

E(aX) = a EX (jednorodność)

12 Dowód podano w punkcie 20.5 części VII Wybrane twierdzenia z dowodami

Page 47: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

47

c) E (aX + b) = aEX+b d) wartość oczekiwana sumy zmiennych losowych jest równa sumie ich wartości oczekiwanych

E(X +Y) = EX +EY (addytywność) e) wartość oczekiwana iloczynu zmiennych losowych niezaleŜnych jest równa iloczynowi ich wartości oczekiwanej

E(XY) = EX · EY (multiplikatywność)

7.1.2. Mediana

Mediana jest jednym z najwaŜniejszych parametrów pozycyjnych. PoniewaŜ mediana jest kwantylem rzędu 0.5, oznacza się ją jako x0.5

lub x1/2. Mediana spełnia relacje

P (X ≤ x1/2) ≥ 2

1 i P (X ≥ x1/2) ≥

2

1

Przykład 7.7

KaŜda liczba z przedziału 4;3 jest medianą zmiennej losowej oznaczającej liczbę wyrzuconych

oczek na kości, natomiast mediana zmiennej losowej X przyjmującej wartości x1 = –1, x2 = 2, x3 =

4 odpowiednio z prawdopodobieństwami pl = 4

1, p2 =

2

1, p3 =

4

1 jest równa 2.

Przykład 7.8

Zmienna losowa X ma gęstość

( )( )

( )

=

2;0x dla

2;0x dla

0

x8

3

xf

2

Znajdziemy medianę tej zmiennej losowej.

Rozwiązanie

W przykładzie 6.17 obliczyliśmy, Ŝe dla ( )2;0∈x dystrybuanta zmiennej losowej X jest równa

F(x) = 3x8

1. Mediana jest więc pierwiastkiem równania 3x

8

1=

2

1

Stąd x1/2 = 3 4 7.1.3. Parametry pozycyjne

Wśród parametrów pozycyjnych najwaŜniejszą rolę odgrywają kwantyle.

Liczbę xp nazywamy kwantylem p-tego rzędu ( 0 < p < 1) zmiennej losowej X, jeŜeli spełnione są warunki

( )( )

−≥≥

≥≤

p1xXP

pxXP

p

p

JeŜeli dystrybuanta F(x) jest ciągła w punkcie xp, to xp jest pierwiastkiem równania F(x)=p.

Kwantyl rzędu p=0,5 nazywamy medianą, a kwantyle rzędu p=0,25 i p=0,75 nazywamy kwartylami.

Do parametrów pozycyjnych zalicza się równieŜ dominantę (modę). Dominantą (modą) zmiennej losowej ciągłej nazywamy taką jej wartość xd, dla której gęstość ma maksimum (lokalne).

JeŜeli występuje tylko jedno maksimum to rozkład nazywany jest jednomodalnym, a jeŜeli więcej - rozkładem wielomodalnym. JeŜeli nie występują maksima, to rozkład nazywany jest antymodalnym.

Page 48: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

48

7.1.4. Wartość oczekiwana funkcji zmiennej losowej

Wartość oczekiwana zmiennej losowej Y = g(X) wyraŜa się wzorem

==

∞−

dx)x(f)x(g

p)x(g

)X(EgEY

kkk

przy czym zakłada się, Ŝe występujące w tym wzorze szereg i całka są bezwzględnie zbieŜne. PowyŜszy wzór wskazuje, Ŝe do obliczenia wartości oczekiwanej zmiennej losowej Y = g(X) wystarczy znajomość rozkładu zmiennej losowej X (nie potrzeba wyznaczać rozkładu zmiennej losowej Y = g(X), patrz przykład 7.8).

Przyjmując za g róŜne funkcje otrzymujemy nowe parametry rozkładu zmiennej losowej X. NajwaŜniejsze z nich przedstawiamy w poniŜszej tabeli.

Tabela 7.1. Parametry rozkładu zmiennej losowej

Funkcja g Parametr Nazwa parametru

g(x) = x m = EX Wartość oczekiwana zmiennej losowej X

g(x) = xk mk = EXk Moment (zwyczajny) rzędu k zmiennej losowej X

g(x) = (x- m)k µk = E(X – m)k Moment centralny rzędu k zmiennej losowej X

g(x) = (x- m)2 µ2 = σ2 = D2 X=

=E(X – m)2 Wariancja zmiennej losowej X

g(x) = (x- c)k E(X – c)k Moment centralny rzędu k zmiennej losowej X

względem liczby rzeczywistej c

Omówimy (poniŜej) własności parametrów z tabeli oraz innych kluczowych parametrów.

7.2. Miary rozproszenia zmiennej losowej jednowymiarowej

7.2.1. Wariancja

Wariancją zmiennej losowej X oznaczamy symbolami

D2X lub teŜ 2σ W tabeli 7.1 podano, Ŝe wariancja jest równa momentowi centralnemu rzędu 2

2σ = D2X = E(X – m)2 Uwzględniając określenie wartości oczekiwanej zmiennej losowej (punkt 7.1.1.) otrzymujemy, Ŝe wariancja zmiennej losowej wyraŜa się wzorem

( )

=

∞+

dx)x(fm-x

p)mx(

XD

-

2

ii

2i

2

Interpretacja

Z powyŜszych wzorów wynika następująca interpretacja wariancji: im mniejsza jest wariancja, tym bardziej jest prawdopodobne, iŜ zmienna losowa przyjmie wartość z pewnego ustalonego otoczenia wartości oczekiwanej. Dlatego o wariancji mówimy, Ŝe jest miarą rozproszenia (rozrzutu) rozkładu zmiennej losowej dokoła jej wartości oczekiwanej.

gdy X ma rozkład skokowy o funkcji prawdopodobieństwa ( ) kk pxXP ==

gdy X ma rozkład ciągły o gęstości f ( )x

gdy X ma rozkład skokowy o funkcji prawdopodobieństwa ( ) ii pxXP ==

gdy X ma rozkład ciągły o gęstości f ( )x

Page 49: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

49

MoŜna udowodnić, Ŝe moment rzędu 2 względem liczby c

E(X – c)2

ma najmniejszą wartość, gdy c = m, czyli rozproszenie rozkładu od liczby c jest najmniejsze, gdy c jest równe wartości oczekiwanej i miarą tego rozproszenia jest wariancja zmiennej losowej.

Pierwiastek kwadratowy z wariancji nazywamy odchyleniem standardowym i oznaczamy σ lub DX

Odchylenie standardowe ma analogiczną interpretację jak wariancja.

Własności wariancji13

a) Wariancja stałej jest równa zeru

D2b = 0 b) Stałą moŜna wyłączać przed znak wariancji, podnosząc ją do kwadratu

D2(aX) = a2D2X c) D2(aX + b) = a2D2X d) Wariancja jest równa róŜnicy momentu rzędu 2 i kwadratu momentu rzędu 1, co zapisujemy

D2X = EX2 – (EX)2

lub w innej notacji σ2 = m2 – m2 Udowadnia się powyŜszą zaleŜność następująco

D2X = E(X – EX)2=E[X2-2X EX + (EX)2]= EX2 – 2EX EX + (EX)2=EX2-(EX)2

e) Jeśli zmienna losowa X ma wartość oczekiwaną m to zmienna losowa

mXX~

−=

ma wartość oczekiwaną 0. Zmienną losową ~X nazywamy zmienną losową scentrowaną .

f) Jeśli zmienna losowa X ma wartość oczekiwaną m i wariancję 02 ≠σ to zmienna losowa

σ−

=mX

Xo

ma wartość oczekiwaną 0 i wariancję 1. Zmienną losową oX nazywamy zmienną losową

standaryzowaną.

Przy centrowaniu i standaryzowaniu zmiennych losowych następuje zmiana punktu zerowego w zakresie zmienności. Badanie własności zmiennych losowych zwykle prowadzi się po dokonaniu ich standaryzacji.

g) Wariancja sumy lub róŜnicy zmiennych losowych niezaleŜnych jest równa sumie wariancji tych zmiennych

D2(X ± Y) = D2X +D2Y co dla przypadku sumy, korzystając z własności d) udowadnia się następująco

D2(X + Y) = E(X+Y)2- [E(X+Y)]2= E(X2+2XY+Y2)-(EX+EY)2 ,

poniewaŜ z załoŜenia zmienne losowe X i Y są niezaleŜne, to E(XY) = EX EY, zatem

D2(X + Y) = EX2+2EXEY+EY2-(EX)2-2EXEY-(EY)2= [EX2-(EX)2]+[EY2-(EY)2] = =D2X + D2Y

Natomiast D2(X - Y) = D2[X +(-1) Y] = D2X + D2 [(-1) Y] = D2 X + (-1)2 D2 Y = D2 X + D2 Y Na zakończenie naleŜy podkreślić, Ŝe własność d) wykorzystujemy często do obliczania wariancji zmiennych losowych. 13 Dowód podano w punkcie 20.5. części VII Wybrane twierdzenia z dowodami

Page 50: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

50

Przykład 7.9

Znajdziemy wariancję zmiennej losowej X oznaczającej liczbę wyrzuconych oczek na kości.

Rozwiązanie W przykładzie 7.1 obliczyliśmy, Ŝe m = 3,5. Obliczymy teraz moment rzędu 2 zmiennej losowej X

m2 = 12 •6

1+ 22 •

6

1+ 32 •

6

1 + 42 •

6

1 + 52 •

6

1+ 62 •

6

1 = 15

6

1

Na podstawie własności d) wariancji

D2X = m2 - m2 = 15

6

1 - 3,52 = 2

12

11

Przykład 7.10

Zmienna losowa X ma gęstość

( )( )

( )

=

2;0x dla

2;0x dla

0

x8

3

xf

2

Znajdziemy wariancję zmiennej losowej X.

Rozwiązanie W przykładzie 7.1 obliczyliśmy, Ŝe m = 1,5. Obliczymy moment rzędu 2 zmiennej losowej X

∫∫ =⋅==+∞

∞−

2

0

2222 4,2dx x

8

3xdx )x(fxm

więc D2X = m2 - m

2 = 2,4 - 1,52 = 0,15

7.2.2. Odchylenie przeciętne

Odchyleniem przeciętnym zmiennej losowej X nazywamy wartość oczekiwaną zmiennej losowej mX −

gdzie m jest wartością oczekiwaną zmiennej losowej X. Odchylenie przeciętne oznaczać będziemy literą β

β = E mX −

Odchylenie przeciętne zmiennej losowej X wyraŜa się wzorem

∞−

dx )x(fmx

pmx

i

iii

Odchylenie przeciętne, obok wariancji i odchylenia standardowego, jest jedną z miar rozproszenia zmiennej losowej dookoła wartości oczekiwanej.

Odchylenie przeciętne względem liczby c definiowane jako

E| X –c|

ma wartość najmniejszą, gdy c jest równe medianie zmiennej losowej X.

Przykład 7.11

Zmienna losowa X oznacza liczbę wyrzuconych oczek na kości. Znajdziemy odchylenie przeciętne tej zmiennej losowej.

gdy X jest zmienną losową skokową o funkcji prawdopodobieństwa ( ) ii pxXP ==

gdy X jest zmienną losową ciągłą o gęstości f ( )x

Page 51: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

51

Rozwiązanie

W przykładzie 7.1 obliczyliśmy, Ŝe m = 3,5, więc odchylenie przeciętne

β = 5,16

15,36

6

15,35

6

15,34

6

15,33

6

15,32

6

15,31 =⋅−+⋅−+⋅−+⋅−+⋅−+⋅−

Przykład 7.12

Zmienna losowa X ma gęstość

( )( )

( )

=

2;0x dla

2;0x dla

0

x8

3

xf

2

Znajdziemy odchylenie przeciętne zmiennej losowej X.

Rozwiązanie

W przykładzie 7.5 obliczyliśmy, Ŝe m = 1,5, więc odchylenie przeciętne

β = ∫ ∫∫∫ =−+−−=⋅−=−∞

∞−

5,1

0

2

5,1

2222

0 256

81dxx

8

3)5,1x(dxx

8

3)5,1x(dxx

8

35,1xdx)x(fmx

7.2.3. Odchylenie ćwiartkowe

W oparciu o kwartyle definiuje się prawdopodobne odchylenie zmiennej losowej od mediany, zwane teŜ odchyleniem ćwiartkowym, jako

d = 2

1 (x3/4 – x1/4)

Odchylenie ćwiartkowe jest jedną z miar rozproszenia wartości zmiennej losowej.

Przykład 7.13

Znajdziemy odchylenie ćwiartkowe zmiennej losowej o gęstości podanej w przykładzie 5.17.

Rozwiązanie

Kwantyl x3/4 jest pierwiastkiem równania

3x8

1=

4

3

zaś kwantyl x1/4 jest pierwiastkiem równania

3x8

1=

4

1

Więc x3/4 = 3 6 , x1/4 = 3 2 . Odchylenie ćwiartkowe d = 2

1( 3 6 - 3 2 )

7.2.4. Współczynnik zmienności

Współczynnikiem zmienności zmiennej losowej X nazywamy stosunek odchylenia standardowego do wartości oczekiwanej tej zmiennej losowej, przy załoŜeniu Ŝe m ≠ 0. Współczynnik zmienności oznaczać będziemy literą v

v = m

σ

Interpretacja

Współczynnik zmienności jest miarą rozproszenia zmiennej losowej dokoła wartości oczekiwanej, gdy za jednostkę przyjmujemy wartość oczekiwaną. Zatem mierzy rozproszenie względne.

Page 52: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

52

Przykład 7.14

Zmienna losowa X ma gęstość

( )( )

( )

=

2;0x dla

2;0x dla

0

x8

3

xf

2

Znajdziemy współczynnik zmienności tej zmiennej losowej.

Rozwiązanie

W przykładach 7.5 i 7.10 obliczyliśmy, Ŝe m = 1,5 i σ2= 0,15, więc współczynnik zmienności

v = m

σ = 26,0

5,1

15,0=

7.3. Asymetria i spłaszczenie rozkładu jednowymiarowej zmiennej losowej

Mówimy, Ŝe zmienna losowa skokowa ma rozkład symetryczny, jeśli istnieje liczba rzeczywista c taka, Ŝe wykres funkcji prawdopodobieństwa tej zmiennej jest symetryczny względem prostej x = c. Liczba c nazywa się środkiem symetrii rozkładu zmiennej losowej.

Rys. 7.1

Mówimy, Ŝe zmienna losowa ciągła o gęstości f(x) ma rozkład symetryczny, jeśli istnieje liczba rzeczywista c taka , Ŝe wykres gęstości jest symetryczny względem prostej x = c , tzn. spełniona jest równość ( ) ( )xcfxcf +=− .

Rys. 7.2

PowyŜszy rozkład ma dwa maksima, stąd jest nazywany dwumodanym, jest to szczególny przypadek rozkładu wielomodalnego, który posiada kilka maksimów.

Przykład 7.15

Zmienna losowa X oznaczająca liczbę wyrzuconych oczek na kości ma rozkład symetryczny o środku symetrii c = 3,5.

Przykład 7.16

Zmienna losowa X o gęstości f(x) = 2

)ax( 2

e2

1 −−

π

ma rozkład symetryczny o środku symetrii c = a.

Page 53: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

53

Jeśli zmienna losowa X ma rozkład symetryczny o środku symetrii c i istnieją momenty tej zmiennej, to :

a) wartość oczekiwana tej zmiennej losowej jest równa c, b) wszystkie momenty centralne rzędu nieparzystego są równe 0.

Współczynnikiem asymetrii rozkładu zmiennej losowej X nazywamy liczbę 3

33 3

2

E(X m)

E(X m)

µ −γ = =

σ −

gdzie µ3 jest momentem centralnym rzędu 3, zaś σ odchyleniem standardowym zmiennej losowej X.

Przykład 7.17

Niech X oznacza liczbę wyrzucanych oczek na kości. PoniewaŜ X ma rozkład symetryczny, więc µ3 = 0, zatem współczynnik asymetrii γ = 0.

Przykład 7.18

Zmienna losowa X ma gęstość

( )( )

( )

23x dla x 0;2

f x 80 dla x 0;2

∈= ∉

Znajdziemy współczynnik asymetrii tej zmiennej losowej.

Rozwiązanie

W przykładach 7.5 i 7.10 obliczyliśmy, Ŝe m = 1,5 oraz 2σ = 0,15. Obliczymy teraz moment centralny µ3.

µ3 = 05,0dxx8

3)5,1x(dx)x(f)mx( 2

2

0

33 −=⋅∫ −=∫ −∞

∞−

Współczynnik asymetrii

γ = 33

σ

µ =

9

152−

Współczynnikiem spłaszczenia (kurtozą) rozkładu zmiennej losowej X nazywamy liczbę 4

44 4

2

E(X m)kurt 3 3

E(X m)

µ −= − = −

σ −

gdzie µ4 jest momentem centralnym rzędu 4, zaś σ odchyleniem standardowym zmiennej losowej X. Kurtoza rozkładu normalnego14 wynosi 0. Rozkłady prawdopodobieństwa moŜna podzielić ze względu na wartość kurtozy na rozkłady:

• mezokurtyczne - wartość kurtozy wynosi 0, spłaszczenie rozkładu jest podobne do spłaszczenia rozkładu normalnego

• leptokurtyczne - kurtoza jest dodatnia, wartości cechy bardziej skoncentrowane niŜ przy rozkładzie normalnym

• platokurtyczne - kurtoza jest ujemna, wartości cechy mniej skoncentrowane niŜ przy rozkładzie normalnym

14 Dowód podano w punkcie 20.6. części VII Wybrane twierdzenia z dowodami

Page 54: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

54

7.4. Wartość oczekiwana i momenty zmiennej losowej dwuwymiarowej

Jeśli (X, Y) jest zmienną losową dwuwymiarową, g(x,y) jest funkcją rzeczywistą dwóch zmiennych rzeczywistych, to funkcja g(X, Y) jest zmienną losową jednowymiarową

A. Niech (X, Y) będzie dwuwymiarową zmienną losową skokową o funkcji prawdopodobieństwa ( ) ijii PyY,xXP ===

Wartością oczekiwaną zmiennej losowej g(X, Y) nazywamy liczbę ( ) ij

i jji p)y,x(gY,XEg ∑∑= (3.1)

przy czym zakładamy, Ŝe ∞<∑∑ iji j

ji p)y,x(g tzn., Ŝe szereg występujący po prawej stronie

wzoru (3.1) jest bezwzględnie zbieŜny.

B. Niech. (X, Y) będzie dwuwymiarową zmienną losową ciągłą o gęstości f(x, y). Wartością oczekiwaną zmiennej losowej g(X, Y) nazywamy liczbę

( ) dxdy)y,x(f)y,x(gY,XEg ∫

∫=

∞−

∞− (3.2)

przy czym zakładamy, Ŝe dxdy)y,x(f|)y,x(g|∫ ∫∞

∞−

∞−

< ∞ tzn., Ŝe całka występująca po prawej

stronie wzoru (3.2) jest bezwzględnie zbieŜna.

Przykład 7.18a

Dwuwymiarowa zmienna losowa (X, Y) ma funkcję prawdopodobieństwa określoną tabelą

yj

xi -1 0 1

-1 11

1

11

2

11

3

1 11

2

11

1

11

2

Znajdziemy wartość oczekiwaną zmiennej losowej X2 + Y2.

Rozwiązanie

W naszym przypadku g(X, Y) = X2 + Y2, więc na podstawie wzoru (3.1)

E(X2 + Y2) = [ ] [ ] ++−+−+−=+∑∑11

20)1(

11

1)1()1(p)yx( 2222

iji j

2j

2i

+ [ ] [ ] [ ] [ ]11

19

11

211

11

101

11

2)1(1

11

31)1( 22222222 =++++−+++−

Przykład 7.18b

Dwuwymiarowa zmienna losowa (X, Y) ma gęstość

( )

=0

xy8y,xf

Znaleźć wartość oczekiwaną zmiennej losowej X.

Rozwiązanie

W naszym przykładzie g(X, Y) = X, więc na podstawie wzoru (3.2)

dla 0x > , 0y > i 1yx 22 <+

dla pozostałych x i y

Page 55: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

55

( ) dx dyy,xxfEX ∫ ∫+∞

∞−

+∞

∞−

=

Zbiór punktów płaszczyzny (x, y) dla których gęstość f(x, y) jest dodatnia, moŜe być opisany nierównościami

−<<

<<2x1y0

1x0

więc

15

8dx dy xy8xEX

1

0

x1

0

2

=

⋅= ∫ ∫

Podstawiając do (3.1) lub do (3.2) w miejsce g róŜne funkcje dwóch zmiennych otrzymujemy nowe parametry rozkładu zmiennej losowej dwuwymiarowej. NajwaŜniejsze z nich przedstawiamy w poniŜszej tabeli.

Tabela 3.2. Parametry rozkładu zmiennej losowej dwuwymiarowej

Funkcja g(x, y) Parametr Nazwa parametru

g(x, y) = xkyl mkl= E(XkYl) Moment rzędu k + l

g(x, y) = x m10= EX Moment rzędu pierwszego – m jeden zero – wartość oczekiwana zmiennej

losowej X

g(x, y) = y m01= EY Moment rzędu pierwszego – m zero

jeden – wartość oczekiwana zmiennej losowej Y

g(x, y) = x2 m20= EX2 Moment rzędu 2 – m dwa zero –

moment rzędu 2 zmiennej losowej X

g(x, y) = y2 m02= EY2 Moment rzędu 2 – m zero dwa –

moment rzędu 2 zmiennej losowej Y

g(x, y) = xy m11= E (XY ) Moment rzędu 2 – m jeden jeden –

wartość oczekiwana iloczynu zmiennych losowych X i Y

g(x, y) =

=(x- m10)k(y-m01)

l µkl =

=E[(X- m10)k(Y-m01)

l] Moment centralny rzędu k + l

g(x, y) =

=(x- m10) (y-m01) µ11 = E[(X- m10)(Y-m01)]

Moment centralny rzędu 1 + 1 - kowariancja zmiennych losowych X i Y

A. Moment rzędu k, k=1,2, …, zmiennej losowej X jest to wartość oczekiwana zmiennej losowej Xk (oznaczenie mk ), zatem

mk = EXk

Moment rzędu k zmiennej losowej X wyraŜa się wzorem (przyjmujemy we wzorze na Eg(X), Ŝe g(x) = xk)

Page 56: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

56

==

∞−

dx)x(fx

px

EXmk

ii

ki

kk

Moment rzędu 1 nazywamy wartością oczekiwaną i oznaczamy m (zamiast m1), czyli

m = EX

Przykład 7.19

Zmienna losowa X ma gęstość

( )

( )

∈=

2;0x dla 0

2;0x dla 2

1

)x(f

Obliczymy moment rzędu k zmiennej losowej X.

Rozwiązanie

1k

2dxx

2

1 dx

2

1x dx )x(fxm

k2

0

k2

0

kkk +

=∫∫ ==∫=∞+

∞−

B. Moment centralny rzędu k zmiennej losowej X jest to wartość oczekiwana zmiennej losowej (X – m)k (oznaczenie µk), zatem

µk = E(X – m)k

Moment centralny rzędu k zmiennej losowej X wyraŜa się wzorem (przyjmujemy we wzorze na Eg(X), Ŝe g(x) = (x – m)k)

∞−

dx)x(f)mx(

p)mx(

k

ik

ki

k

Przykład 7.20

Zmienna losowa X ma gęstość

f(x) = )1;0(

)1;0(

dla0

dla1

x

x

Znajdziemy moment centralny rzędu k zmiennej losowej X.

Rozwiązanie

Obliczymy najpierw wartość oczekiwaną EX

∫∫ ====+∞

∞−

1

0 2

1xdxdx )x(f xEXm

gdy X ma rozkład skokowy o funkcji prawdopodobieństwa ( ) ii pxXP ==

gdy X ma rozkład ciągły o gęstości f ( )x

gdy X jest zmienną losową skokową o funkcji prawdopodobieństwa ( ) ii pxXP ==

gdy X jest zmienną losową ciągłą o gęstości f ( )x

Page 57: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

57

Teraz moŜemy obliczyć moment centralny rzędu k

µk = E(X – m)k = ∫ ∫∞

∞−

++

−−

+=−=−

1

0

1k1kkk

2

1

2

1

1k

1dx)

2

1x(dx )x(f)mx(

( )

+=µ

0

21k

1k

k

Moment centralny pierwszego rzędu dowolnej zmiennej losowej jest równy zeru µ1=0 (o ile istnieje).

7.5. Parametry rozkładu zmiennej losowej dwuwymiarowej

7.5.1. Wartość oczekiwana funkcji dwuwymiarowej zmiennej losowej

Jeśli (X, Y) jest zmienną losową dwuwymiarową, g(x,y) jest funkcją rzeczywistą dwóch zmiennych rzeczywistych, to funkcja g(X, Y) jest zmienną losową jednowymiarową

A. Niech (X, Y) będzie dwuwymiarową zmienną losową skokową o funkcji prawdopodobieństwa ( ) ijii PyY,xXP ===

Wartością oczekiwaną zmiennej losowej g(X, Y) nazywamy liczbę ( ) ij

i jji p)y,x(gY,XEg ∑∑= (7.1)

przy czym zakładamy, Ŝe ∞<∑∑ iji j

ji p)y,x(g tzn., Ŝe szereg występujący po prawej stronie

wzoru (7.1) jest bezwzględnie zbieŜny.

B. Niech. (X, Y) będzie dwuwymiarową zmienną losową ciągłą o gęstości f(x, y). Wartością oczekiwaną zmiennej losowej g(X, Y) nazywamy liczbę

( ) dxdy)y,x(f)y,x(gY,XEg ∫

∫=

∞−

∞− (7.2)

przy czym zakładamy, Ŝe dxdy)y,x(f|)y,x(g|∫ ∫∞

∞−

∞−

< ∞ tzn., Ŝe całka występująca po prawej

stronie wzoru (7.2) jest bezwzględnie zbieŜna.

Przykład 7.21

Dwuwymiarowa zmienna losowa (X, Y) ma funkcję prawdopodobieństwa określoną tabelą

yj

xi -1 0 1

-1 11

1

11

2

11

3

1 11

2

11

1

11

2

Znajdziemy wartość oczekiwaną zmiennej losowej X2 + Y2.

Rozwiązanie

W naszym przypadku g(X, Y) = X2 + Y2, więc na podstawie wzoru (7.1)

E(X2 + Y2) = [ ] [ ] ++−+−+−=+∑∑ 11

20)1(

11

1)1()1(p)yx( 2222

iji j

2j

2i

gdy k jest liczbą parzystą gdy k nie jest liczbą parzystą

Page 58: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

58

+ [ ] [ ] [ ] [ ]11

19

11

211

11

101

11

2)1(1

11

31)1( 22222222 =++++−+++−

Przykład 7.22

Dwuwymiarowa zmienna losowa (X, Y) ma gęstość

( )

=0

xy8y,xf

Znaleźć wartość oczekiwaną zmiennej losowej X.

Rozwiązanie

W naszym przykładzie g(X, Y) = X, więc na podstawie wzoru (7.2)

( ) dx dyy,xxfEX ∫ ∫+∞

∞−

+∞

∞−

=

Zbiór punktów płaszczyzny (x, y) dla których gęstość f(x, y) jest dodatnia, moŜe być opisany nierównościami

−<<

<<2x1y0

1x0

więc

15

8dx dy xy8xEX

1

0

x1

0

2

=

⋅= ∫ ∫

Podstawiając do (7.1) lub do (7.2) w miejsce g róŜne funkcje dwóch zmiennych otrzymujemy nowe parametry rozkładu zmiennej losowej dwuwymiarowej. NajwaŜniejsze z nich przedstawiamy w poniŜszej tabeli.

Tabela 7.2. Parametry rozkładu zmiennej losowej dwuwymiarowej

Funkcja g(x, y) Parametr Nazwa parametru

g(x, y) = xkyl mkl= E (XkYl) Moment rzędu k + l

g(x, y) = x m10= E X Moment rzędu pierwszego – m jeden zero –

wartość oczekiwana zmiennej losowej X

g(x, y) = y m01= EY Moment rzędu pierwszego – m zero jeden –

wartość oczekiwana zmiennej losowej Y

g(x, y) = x2 m20= E X2 Moment rzędu 2 – m dwa zero – moment rzędu

2 zmiennej losowej X

g(x, y) = y2 m02= E Y2 Moment rzędu 2 – m zero dwa – moment rzędu

2 zmiennej losowej Y

g(x, y) = xy m11= E (XY ) Moment rzędu 2 – m jeden jeden – wartość

oczekiwana iloczynu zmiennych losowych X i Y

g(x, y) =

=(x- m10)k(y-m01)

l µkl =

=E[(X- m10)k(Y-m01)

l] Moment centralny rzędu k + l

g(x, y) =

=(x- m10) (y-m01) µ11 = E[(X- m10)(Y-m01)]

Moment centralny rzędu 1 + 1 - kowariancja zmiennych losowych X i Y

dla 0x > , 0y > i 1yx 22 <+

dla pozostałych x i y

Page 59: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

59

7.5.2. Momenty dwuwymiarowej zmiennej losowej

A. Momentem rzędu k + 1 (k = 0, 1, ..., l = 0, 1, ...;) dwuwymiarowej zmiennej losowej (X,Y) nazywamy wartość oczekiwaną zmiennej losowej XkYl

Moment rzędu k + l oznaczamy symbolem mkl, więc

mkl = E(XkYl)

Przyjmując g(X, Y) = XkYl, otrzymujemy na podstawie (7.1) i (7.2) następujące wzory

( )

=∫ ∫

∑∑∞+

∞−

∞+

∞−

dx dyy,xfyx

pyx

mlk

i jij

lj

ki

kl

Momenty rzędu pierwszego m10 = EX, m01 = EY

mogą być obliczone takŜe za pomocą rozkładów brzegowych zmiennych losowych X i Y. Za pomocą tych rozkładów wyznacza się takŜe

m20 = EX2 - moment rzędu 2 zmiennej losowej X, m02 = EY2 - moment rzędu 2 zmiennej losowej Y.

Z kolei dla wyznaczenia momentu mieszanego

m11 = E(XY) - wartość oczekiwana iloczynu zmiennych losowych X i Y.

niezbędna jest znajomość rozkładu łącznego (patrz przykład 7.24).

Przykład 7.23

Dwuwymiarowa zmienna losowa (X, Y) ma gęstość

Rys. 7.3

f(x) = A)y,x(

A)y,x(

dla0

dla1

gdzie A jest zbiorem punktów płaszczyzny (x, y), dla których 0 < x < 1 i 0 < y < 2x (rysunek 7.3). Obliczymy momenty rzędu 1 i rzędu 2 tej zmiennej losowej

Rozwiązanie

m10 = ∫∫∫∫ ∫ ==

=

+∞

∞−

+∞

∞−

1

0

2x2

0

1

0 3

2dxx2dxdyxdxdy)y,x(f x

m01 = ∫∫∫∫ ∫ ==

=

+∞

∞−

+∞

∞−

1

0

2x2

0

1

0 3

2dxx2dxdy ydxdy)y,x(f y

m20 = ∫∫∫∫ ∫ ==

=

+∞

∞−

+∞

∞−

1

0

3x2

0

1

0

22

2

1dxx2dxdyxdxdy)y,x(fx

m02 = ∫∫∫∫ ∫ ==

=

∞−

∞−

1

0

3x2

0

21

0

2

3

2dx

3

x8dxdyydxdy)y,x(fx

gdy ( )Y,X ma rozkład skokowy ( ) ijji pyY,xXP ===

gdy ( )Y,X ma rozkład ciągły o gęstości f ( )y,x

Page 60: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

60

m11 = ∫∫∫∫ ∫ ==

=

∞−

∞−

1

0

3x2

0

1

0 2

1dxx2dxdy yxdxdy)y,x(xyf

Przykład 7.24

Dwuwymiarowa zmienna losowa (X, Y) ma funkcję prawdopodobieństwa określoną tabelą

yj

xi -1 0 1

1 11

1

11

3

11

2

3 11

2

11

1

11

2

Znajdziemy momenty rzędu 1 i rzędu 2 tej zmiennej losowej.

Rozwiązanie

Momenty m10, m01, m20 i m02 łatwiej jest znaleźć przy pomocy rozkładów brzegowych zmiennych losowych X i Y. W przykładzie 5.34 znaleźliśmy te rozkłady:

Rozkład X xi 1 3

pi. 11

6

11

5

Rozkład Y

yj -1 0 1

p.j 11

3

11

4

11

4

m10 = EX = 11

21

11

53

11

61.pix

ii =⋅+⋅=∑

m01 = EY = 11

1

11

41

11

40

11

3)1(.py

jjj =⋅+⋅+⋅−=∑

m20 = EX2 = 11

51

11

53

11

61px

i

22.i

2i =⋅+⋅=∑

m02 = EY2 = 11

7

11

41

11

40

11

3)1(py

j

222j.j =⋅+⋅+⋅−=∑

m11 = E(XY) = ∑∑ +⋅⋅+⋅⋅+⋅−⋅=i j

ijji 11

211

11

301

11

1)1(1pyx

+ 11

1

11

213

11

103

11

203 =⋅⋅+⋅⋅+⋅⋅

B. Momentem centralnym rzędu k+1 dwuwymiarowej zmiennej losowej (X, Y) nazywamy wartość oczekiwaną zmiennej losowej

(X - m10)k(Y – m01)

1

Moment centralny rzędu k+1 oznaczamy symbolem µkl, więc

µkl = E [ ]101

k10 )mY()mX( −−

Przyjmując g(X, Y) = (X –m10)k(Y – m01)

l, otrzymujemy na podstawie wzorów (7.1) i (7.2) następujący wzór

Page 61: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

61

−−

−−

=µ∫ ∫

∑∑∞

∞−

∞−

dxdy)y,x(f)my()mx(

p)my()mx(

l01

k10

i jij

l01j

k10i

kl

Momenty centralne rzędu 1 są równe zeru µ10 = E(X – m10) = 0, µ01= E(Y – m01) = 0

DuŜa rolę w praktyce odgrywają momenty centralne rzędu drugiego zmiennej losowej dwuwymiarowej (X,Y):

• µ20= E(X – m10)2 = D2X, czyli wariancja zmiennej losowej X

• µ02= E(Y – m01)2 = D2Y, czyli wariancja zmiennej losowej Y,

• µ11= E[(X – m10)(Y – m01)], czyli centralny moment mieszany, który nazywa się kowariancją zmiennej losowej (X, Y).

PoniewaŜ wartość oczekiwana iloczynu zmiennych losowych niezaleŜnych jest równa iloczynowi wartości oczekiwanych tych zmiennych losowych oraz momenty centralne rzędu 1 są równe zeru, więc kowariancja zmiennych losowych niezaleŜnych jest równa zeru. Twierdzenie odwrotne jest nieprawdziwe - z zerowania się kowariancji zmiennych losowych nie wynika ich niezaleŜność.

Przykład 7.25

Wyrazimy kowariancję zmiennych losowych X i Y jako funkcję momentów zwyczajnych tych zmiennych.

Rozwiązanie

W poniŜszych przekształceniach będziemy korzystać z własności wartości oczekiwanej µ11 = E[(X – m10)(Y – m01)] = E(XY)– m10 EY – m01 EX + m10m01=

= m11 – m10m01 – m10m01 + m10m01 = m11 – m10 – m01

Momenty centralne rzędu 2 wyraŜają się przy pomocy momentów zwyczajnych następującymi wzorami

µ20 = D2X = m20 – (m10)

2, µ20 = D2Y = m02 – (m01)

2

µ11 = m11 – m10m01

Przykład 7.26

Obliczymy momenty centralne rzędu drugiego zmiennej losowej dwuwymiarowej z przykładu 7.23 Rozwiązanie

W przykładzie 7.23 obliczyliśmy, Ŝe m10 = 3

2, m01 =

3

2, m20 =

2

1, m02 =

3

2, m11 =

2

1,

więc

µ20 = m20 – (m10)2 =

2

1 -

2

3

2

= 18

1

µ02 = m02 – (m01)2 =

3

2 –

2

3

2

= 9

2

µ11 = m11 – m10m01 = 2

1 –

3

2 ·

3

2 =

18

1

gdy ( )Y,X ma rozkład skokowy ( ) ijji pyY,xXP ===

gdy ( )Y,X ma rozkład ciągły o gęstości f ( )y,x

Page 62: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

62

7.5.3. Współczynnik korelacji

Współczynnikiem korelacji Pearsona (albo krótko współczynnikiem korelacji) zmiennych losowych X i Y nazywamy liczbę ρ określoną wzorem

21

11

σσ

µ=ρ ( załoŜenie 0, 21 ≠σσ )

gdzie: µ11 jest kowariancją tych zmiennych, σ1 - odchyleniem standardowym zmiennej losowej X, zaś σ2 odchyleniem standardowym zmiennej losowej Y.

Współczynnik korelacji ρ wyraŜa się przy pomocy momentów zwyczajnych następującym wzorem

20102

21020

011011

mmmm

mmm

−−

−=ρ

Przykład 7.27

Niech (X, Y) będzie dwuwymiarową zmienną losową z przykładu 7.23. Obliczymy współczynnik korelacji zmiennych losowych X i Y.

Rozwiązanie

W przykładzie 7.26 obliczyliśmy, Ŝe µ11 = 18

1,

21σ = µ20 =

18

1 ,

22σ = µ02 =

9

2, więc

2

1

9

2

18

118

1

=

Własności współczynnika korelacji15

Zakładamy, Ŝe istnieje współczynnik korelacji zmiennych losowych X i Y.

a) Współczynnik korelacji zmiennych losowych niezaleŜnych jest równy 0 (bo wtedy kowariancja jest równa zeru).

b) Współczynnik korelacji przyjmuje wartości z przedziału <-1,+1>

-1 ≤ ρ≤ 1 c) Wartość bezwzględna współczynnika korelacji jest równa 1 wtedy i tylko wtedy, gdy

z prawdopodobieństwem równym jeden zmienne losowe są zaleŜne liniowo |ρ | = 1 ⇔ P(Y = aX + b) = 1

przy czym dla ρ =1 mamy a > 0, zaś dla ρ = -1 mamy a < 0.

Współczynnik korelacji, ze względu na powyŜsze własności, interpretujemy jako miarę zaleŜności liniowej zmiennych losowych. Jeśli współczynnik korelacji ma moduł większy od 0,7 to przyjmuje się, Ŝe stopień zaleŜności linowej jest na tyle wysoki, iŜ moŜna wtedy jedną zmienną losową aproksymować funkcją liniową drugiej zmiennej losowej. Zagadnieniem tym zajmiemy się w następnym rozdziale.

15 Dowód podano w punkcie 20.8 części VII Wybrane twierdzenia z dowodami

Page 63: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

63

Przykład 7.28

W poniŜszej tabeli przedstawiona jest funkcja prawdopodobieństwa zmiennej losowej dwuwymiarowa skokowej (X,Y) oraz funkcje prawdopodobieństwa brzegowe zmiennych losowych X i Y. Obliczymy współczynnik korelacji tych zmiennych.

jy

ix 0 1 2 3 .ip

-2 0,3 0,3 -1 0,2 0,2 0 0,05 0,15 0,2 1 0,3 0,3

j.p 0,3 0,25 0,15 0,3 Suma

1

Rozwiązanie

∑==i

.ii10 pxEXm = ( ) 5,03,012,002,0)1(3,02 −=⋅+⋅+⋅−+⋅−

∑ =⋅+⋅+⋅+⋅===j

j.j01 45,13,0315,0225,013,00pyEYm

== 220 EXm ( ) 7,13,012,002,0)1(3,02px 222

i.i

2i

2

=⋅+⋅+⋅−+⋅−=∑

== 202 EYm 55,33,0315,0225,013,00py

j

2222j.

2j∑ =⋅+⋅+⋅+⋅=

( ) == XYEm11 ∑∑i j

ijji pyx +⋅⋅+⋅⋅−+⋅⋅−= 05,0102,01)1(3,00)2( 0 2 0,15 1 3 0,3 0,7⋅ ⋅ + ⋅ ⋅ =

=−−−

⋅−−=

−−

−=

2220102

21020

011011

45,155,3)5,0(7,1

45,1)5,0(7,0

mmmm

mmmρ 0,984

Wnioski: • Zmienne losowe X i Y są zaleŜne, bo ρ ≠ 0. • ZaleŜność zmiennych losowych X i Y nie jest liniowa, bo |ρ| ≠ 1. ZaleŜność zmiennych losowych X i Y zbliŜona jest do rosnącej zaleŜności liniowej, bo ρ jest bliskie 1.

Przykład 7.29

Zmienna losowa dwuwymiarowa ciągła ma gęstość

+

=0

yx)y,x(f

Znajdziemy współczynnik korelacji zmiennych losowych X i Y.

Rozwiązanie

ZauwaŜmy, Ŝe ze względu na postać gęstości momenty 10m i 01m oraz momenty 20m

i 02m są sobie równe.

12

7

4

1

3

1

0

1

4

x

3

xdx

2

xxdx

0y

1y

2

xyyx

dxdy)yx(xdxdy)y,x(xfEXm

231

0

21

0

22

1

0

1

010

=+=

+=∫

+=

=

=

+=

=∫

∫ +=∫

∫==

∞−

∞−

dla 1x0 << i 1y0 << dla pozostałych x i y

Page 64: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

64

12

5

6

1

4

1

0

1

6

x

4

xdx

2

xxdx

0y

1y

2

xyyx

dxdy)yx(xdxdy)y,x(fxEXm

341

0

23

1

0

223

1

0

1

0

22220

=+=

+=∫

+=

=

=

+=

=∫

∫ +=∫

∫==

∞−

∞−

( )

3

1

6

1

6

1

0

1

6

x

6

xdx

3

x

2

xdx

0y

1y

3

xy

2

yx

dxdy)yx(xydxdy)y,x(xyfXYEm

231

0

21

0

322

1

0

1

011

=+=

+=∫

+=

=

=

+=

=∫

∫ +=∫

∫==

∞−

∞−

Zatem współczynnik korelacji jest równy

11 10 01

2 2 2 220 10 02 01

1 7 7 48 49m m m 13 12 12 144ρ

60 49 11m m m m 5 7 5 7144

12 12 12 12

−−−

= = = = −−− − − −

7.5.3. Zmienne losowe nieskorelowane

JeŜeli współczynnik korelacji zmiennych losowych X i Y jest równy zeru, to nazywamy je zmiennymi losowymi nieskorelowanym. Zmienne losowe niezaleŜne są zmiennymi losowymi nieskorelowanymi (o ile istnieje współczynnik korelacji tych zmiennych). Zmienne losowe nieskorelowane mogą nie być niezaleŜne.

Dwa waŜne twierdzenia o zmiennych losowych nieskorelowanych. • Wartość oczekiwana iloczynu zmiennych losowych jest równa iloczynowi ich wartości

oczekiwanych wtedy i tylko wtedy, gdy zmienne te są nieskorelowane. • Wariancja sumy zmiennych losowych jest równa sumie ich wariancji wtedy i tylko wtedy, gdy

zmienne te są nieskorelowane.

Przykład 7.30

Zmienna losowa dwuwymiarowa skokowa (X,Y) oraz zmienne losowe X i Y mają funkcje prawdopodobieństwa przedstawione w tabeli

jy

ix -1 0 .ip

-1 0,2 0,2 0,4 0 0,2 0,2 1 0,2 0,2 0,4

j.p 0,6 0,4 Suma

1 ∑==i

.ii10 pxEXm = ( ) 04,012,004,01 =⋅+⋅+⋅−

( )∑ −=⋅+⋅−===j

j.j01 6,04,006,01pyEYm

( ) == XYEm11 ∑∑i j

ijji pyx 02,0012,0)1(12,0)1(02,00)1(2,0)1()1( =⋅⋅+⋅−⋅+⋅−⋅+⋅⋅−+⋅−⋅−=

cov (X,Y) 011011 mmm −= = 0)6,0(00 =−⋅−

PoniewaŜ cov (X,Y) = 0, więc takŜe ρ = 0, zatem zmienne losowe X i Y są nieskorelowane. PoniewaŜ 2,0)1Y,1X(P24,06,04,0)1Y(P)1X(P =−=−=≠=⋅=−=−= więc zmienne losowe X i Y nie są niezaleŜne, czyli są zaleŜne.

Page 65: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

65

8. REGRESJA ZMIENNYCH LOSOWYCH

8.1. Wprowadzenie

W rozdziale 5 (ppkt 5.2.7) wprowadziliśmy pojęcie zmiennych losowych niezaleŜnych. Mianowicie w ogólnym przypadku zmienne losowe X i Y nazywamy zmiennymi losowymi niezaleŜnymi, jeśli

)y(F)x(F)y,x(F YX= dla x, y R∈

gdzie )y,x(F - dystrybuanta zmiennej losowej dwuwymiarowej (X,Y),

)x(FX - dystrybuanta brzegowa zmiennej losowej X.

)y(FY - dystrybuanta brzegowa zmiennej losowej Y. W przypadku skokowym zmienne losowe X i Y są niezaleŜne wtedy i tylko wtedy, gdy

i j i jP(X x ,Y y ) P(X x )P(Y y )= = = = =

dla kaŜdego punktu ( )y,x ji skokowego zmiennej losowej dwuwymiarowej (X,Y), zaś w przypadku

ciągłym zmienne losowe X i Y są niezaleŜne wtedy i tylko wtedy, gdy

)y(f)x(f)y,x(f YX=

w kaŜdym punkcie )y,x( ciągłości funkcji )y,x(f , przy czym )y,x(f - gęstość zmiennej losowej dwuwymiarowej (X,Y),

)x(fX - gęstość brzegowa zmiennej losowej X,

)y(fY - gęstość brzegowa zmiennej losowej Y.

Zmienne losowe X i Y nie będące zmiennymi losowymi niezaleŜnymi nazywamy zmiennymi

losowymi zaleŜnymi

PoniŜsze twierdzenia pokazują, w jakim sensie pojęcia niezaleŜności i zaleŜności zmiennych losowych odpowiadają niezaleŜności i zaleŜności rozumianej potocznie. • Jeśli zmienne losowe X i Y są niezaleŜne, to rozkład warunkowy zmiennej losowej X pod

warunkiem, Ŝe zaszło zdarzenie yY = jest równy rozkładowi zmiennej losowej X, takŜe rozkład warunkowy zmiennej losowej Y pod warunkiem, Ŝe zaszło zdarzenie xX = jest równy rozkładowi zmiennej losowej Y.

• Jeśli rozkład warunkowy zmiennej losowej X pod warunkiem, Ŝe zaszło zdarzenie yY = jest taki sam jak rozkład zmiennej losowej X (dla tych wszystkich wszystkich, dla których ten rozkład istnieje) lub, jeśli rozkład warunkowy zmiennej losowej Y pod warunkiem, Ŝe zaszło zdarzenie xX = jest taki sam jak rozkład zmiennej losowej Y (dla tych wszystkich x dla których ten rozkład istnieje), to zmienne losowe X i Y są niezaleŜne.

• Jeśli istnieje rozkład warunkowy zmiennej losowej X pod warunkiem, Ŝe zaszło zdarzenie yY = róŜny od rozkładu zmiennej losowej X lub istnieje rozkład warunkowy zmiennej losowej

Y pod warunkiem, Ŝe zaszło zdarzenie xX = jest róŜny od rozkładu zmiennej losowej Y, to zmienne losowe są zaleŜne.

Tak więc niezaleŜność zmiennych losowych oznacza, Ŝe przyjęcie przez jedną ze zmiennych dowolnej wartości nie ma wpływu na rozkład prawdopodobieństwa drugiej zmiennej losowej. Natomiast zaleŜność zmiennych losowych oznacza, Ŝe istnieje co najmniej jeden rozkład warunkowy X/Y=y róŜny od rozkładu zmiennej losowej X lub co najmniej jeden rozkład warunkowy Y/X=x róŜny od rozkładu zmiennej losowej Y, a zatem przyjęcie przez jedną zmienną losową wartości moŜe mieć wpływ na rozkład prawdopodobieństwa drugiej zmiennej losowej.

Aby podkreślić, Ŝe chodzi o niezaleŜność lub zaleŜność zmiennych losowych w powyŜszym sensie mówimy, Ŝe zmienne losowe są niezaleŜne stochastycznie lub, Ŝe są zaleŜne stochastycznie.

Page 66: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

66

8.2. ZaleŜność funkcyjna zmiennych losowych

Mówimy, Ŝe zmienne losowe X i Y są zaleŜne funkcyjnie, jeśli istnieje róŜna od stałej funkcja g rzeczywista zmiennej rzeczywistej taka, Ŝe

)Y(gXlub)X(gY ==

Oznacza to, Ŝe wszystkie wartości )y,x( zmiennej losowej dwuwymiarowej )Y,X( naleŜą do wykresu funkcji )x(gy = lub do wykresu funkcji )y(gx = .

Przykład 8.1

Zmienna losowa dwuwymiarowa (X,Y) skokowa ma poniŜszą funkcję prawdopodobieństwa

jy

ix -1 1 3 5

-1 0,2 0 0,1 1 0,3 2 0,4

Zmienne losowe X i Y są zaleŜne funkcyjnie Y=2X+1 (rys. 8.1)

Przykład 8.2

Zmienna losowa dwuwymiarowa (X,Y) skokowa ma funkcję prawdopodobieństwa określoną tabelą

jy

ix 0 1 4

-1 0,2 0 0,1 1 0,3 2 0,4

Zmienne losowe X i Y są zaleŜne funkcyjnie Y =X2 (rys. 8.2 )

Rys. 8.1 Rys. 8.2

ZaleŜność funkcyjna zmiennych losowych jest zaleŜnością stochastyczną. Odwrotne twierdzenie nie jest prawdziwe.

Page 67: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

67

Przykład 8.3

Niech (X,Y) będzie dwuwymiarową zmienną losową skokową o funkcji prawdopodobieństwa przedstawioną tabelą w przykładzie 5.31. W przykładzie tym wyznaczyliśmy funkcję prawdopodobieństwa warunkową Y/X=3. Rozkład ten jest róŜny od rozkładu brzegowego zmiennej losowej Y, więc zmienne losowe X i Y są zaleŜne stochastycznie. Nie są jednak zaleŜne funkcyjnie, gdyŜ nie istnieje taka funkcja, której wykres przechodziłby przez wszystkie punkty będące wartościami zmiennej losowej dwuwymiarowej (X,Y) (rys. 8.3).

Rys. 8.3

8.3. Regresja I rodzaju

ZaleŜność funkcyjna zmiennych losowych jest waŜna w zagadnieniach teoretycznych i kluczowa w zastosowaniach praktycznych. Jeśli np. )X(gY = i znana jest funkcja g, to moŜna za pomocą rozkładu prawdopodobieństwa zmiennej losowej X wyznaczyć rozkład prawdopodobieństwa i parametry zmiennej losowej Y, moŜna takŜe wyznaczyć wartości zmiennej losowej Y za pomocą wartości zmiennej losowej X (co jest waŜne przy prognozowaniu wartości zmiennej losowej Y). Krótko mówiąc, jeśli zmienne losowe są zaleŜne funkcyjnie, to do opisu rozkładu zmiennej losowej dwuwymiarowej wystarczy znać rozkład jednej ze zmiennych losowych jednowymiarowych. Jednak zaleŜności funkcyjnie zmiennych losowych rzadko występują w zagadnieniach praktycznych. Natomiast istnieje wiele sytuacji, w których zaleŜność stochastyczna mało róŜni się od zaleŜności funkcyjnej i moŜe być z niewielkim błędem aproksymowana (przybliŜana) tą zaleŜnością.

Zagadnienie

Wyznaczyć funkcję h rzeczywistą zmiennej rzeczywistej tak by zmienna losowa )X(hY = była taką aproksymacją zmiennej losowej Y, Ŝeby wyraŜenie

=δg [ ]2)X(gYE − średniokwadratowe odchylenie zm. los. Y od zm. los. g(X)

miało wartość najmniejszą , gdy funkcja g jest równa funkcji h.

PowyŜszą zasadę wyznaczania zmiennej losowej )X(hY = nazywamy zasadą najmniejszych

kwadratów.

Zmienną losową )X(hY = nazywamy wówczas regresją I rodzaju zmiennej losowej Y względem

zmiennej losowej X. Zatem:

Regresja I rodzaju zmiennej losowej Y względem zmiennej losowej X jest to zmienna losowa

)X(hY = taka, Ŝe

[ ] [ ]2

)x(g

2 )X(gYEmin)X(hYE −=−

czyli zmienna losowa wyznaczona zgodnie z zasadą najmniejszych kwadratów

Wykres funkcji )x(hy = nazywamy wówczas krzywą regresji I rodzaju zmiennej losowej Y względem zmiennej losowej X.

Page 68: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

68

8.4. Regresja II rodzaju

Wyznaczanie regresji I rodzaju zmiennej losowej Y względem zmiennej losowej X polegało na znalezieniu funkcji h rzeczywistej zmiennej rzeczywistej takiej, by wyraŜenie

2g ))X(gY(E −=δ

miało wartość najmniejszą, gdy funkcja g jest równa funkcji h, czyli szukaliśmy w klasie wszystkich funkcji takiej funkcji h, dla której wyraŜenie hδ jest najmniejsze. Wtedy zmienna

losowa )X(gY = , zwana regresją I rodzaju zmiennej losowej Y względem zmiennej losowej X aproksymuje zaleŜność stochastyczną zmiennych losowych zaleŜnością funkcyjną (najlepiej zgodnie z przyjętym kryterium wyboru funkcji h, czyli zgodnie z zasadą najmniejszych kwadratów). W zagadnieniach praktycznych posługiwanie się regresją I rodzaju jest niewygodne, bowiem na ogół nie jest znany wzór określający funkcję h, co stanowi kłopot przy przewidywaniu wartości zmiennej losowej Y, gdy znana jest wartość zmiennej losowej X. Aby ominąć tę trudność, poszukujemy funkcji h zgodnie z zasadą najmniejszych kwadratów nie w klasie wszystkich funkcji, tylko w pewnej klasie K funkcji określonych wspólnym wzorem zaleŜnym od parametrów.

Wówczas zmienną losową )X(hY = nazywamy regresją II rodzaju w klasie K zmiennej losowej Y względem zmiennej losowej X.

Przykład 8.5

Nazwa klasy K Wzór określający

funkcję naleŜącą do klasy K

Parametry funkcji

Kryterium wyboru parametrów funkcji

Klasa funkcji liniowych

ba += xy ba, min [ ]2)ba( +− XYE

Klasa funkcji wykładniczych

xbay = b,a min [ ]2x )baYE −

Klasa funkcji potęgowych

baxy = b,a min [ ]2x )abYE −

Klasa hiperbol cbx

ay +

−= cb,a, min

2

cbx

aYE

+−

8.5. Liniowa regresja II rodzaju

RozwaŜania dotyczące regresji II rodzaju ograniczymy do regresji liniowej, tj. regresji w klasie K funkcji liniowych. Czynimy to z kilku powodów 1. W wielu zagadnieniach praktycznych zaleŜność stochastyczna rzeczywiście mało róŜni się od

zaleŜności liniowej (choć nie jest tą zaleŜnością). 2. W niektórych przypadkach regresję nieliniową moŜna dość łatwo sprowadzić do regresji

liniowej. 3. Metodę wyznaczania regresji moŜna najłatwiej przedstawić w przypadku regresji liniowej. 4. Wyznaczanie regresji względem klasy K funkcji róŜnych od funkcji liniowych przebiega

podobnie jak względem klasy funkcji liniowych. RozwaŜamy zmienną losową dwuwymiarową (X,Y). Oznaczamy

,YDσ,XDσY,Em,EXm 22Y

22X0110 ====

)Y,Xcov( - kowariancja zmiennych losowych X i Y,

ρ - współczynnik korelacji zmiennych losowych X i Y. Zakładamy, Ŝe powyŜsze parametry istnieją oraz, Ŝe 0σX > i .0σY >

Page 69: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

69

Regresja liniowa II rodzaju zmiennej losowej Y względem zmiennej losowej X jest to zmienna

losowa

YY βXαY +=

gdzie liczby YβiαY są wyznaczone tak, by funkcja

[ ]2)βXα(YE)βα,(g +−=

miała w punkcie )β,α( YY wartość najmniejszą.

Prostą o równaniu

YY βxαy +=

nazywamy prostą regresji II rodzaju zmiennej losowej Y względem zmiennej losowej X.

Liczby YβiαY nazywamy współczynnikami prostej regresji II rodzaju cechy Y względem cechy X.

Współczynnik Yα oznacza średni przyrost zmiennej losowej Y, gdy zmienna losowa X wzrośnie

o jednostkę, natomiast współczynnik Yβ jest rzędną punktu przecięcia prostej regresji

YY xy βαˆ += z osią Oy.

Wyznaczanie współczynników YY βiα

Przekształcimy funkcję )βα,(g

[ ]2)βXα(YE)βα,(g +−= = ( ) ( ) ( )[ ]210011001 βammX-mαmYE −−+−−

MoŜna wykazać16, współczynniki minimalizujące powyŜszą funkcje są równe

Y

X

σα ρ

σ= , 101o10

X

Y01 mmmm α−=ρ

σ

σ−=β

Stosując poznane w matematyce metody moŜemy stwierdzić, Ŝe dla powyŜszych wartości α i β funkcja g ma wartość najmniejszą. Zatem

ρσ

σα

X

YY = , 10Y01Y mαmβ −= współczynniki regresji liniowej Y względem X

xρσ

σy

X

Y= + 10X

Y01 mρ

σ

σm − równanie prostej regresji II rodzaju Y względem X

Xρσ

σY

X

Y= + 10X

Y01 mρ

σ

σm − regresja liniowa II rodzaju liniowa Y względem X

Przykład 8.6

Zmienna losowa X oznacza cenę sztuki pewnego towaru (w zł.), natomiast zmienna losowa Y podaŜ tego towaru (w tys. sztuk). Funkcja prawdopodobieństwa zmiennej losowej dwuwymiarowej (X,Y) i funkcje prawdopodobieństwa brzegowe zmiennych losowych X i Y przedstawione są w tabeli.

jy

ix 5 6 7 8 9 .ip

2,0 0,10 0,05 0,02 0,17 2,5 0,08 0,15 0,03 0,26 3,0 0,02 0,08 0,05 0,02 0,02 0,19 3,5 0,02 0,05 0,05 0,05 0,17 4,0 0,10 0,03 0,08 0,21

j.p 0,20 0,30 0,25 0,10 0,15 Suma 1,00

16 Dowód podano w punkcie 20.8. części VII Wybrane twierdzenia z dowodami

Page 70: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

70

Znajdziemy prostą regresji II zmiennej losowej Y względem zmiennej losowej X.

Rozwiązanie

∑==i

.ii10 pxEXm = 2 0,17 2,5 0,26 3 0,19 3,5 0,17 4 0,21 2,995⋅ + ⋅ + ⋅ + ⋅ + ⋅ =

01 j . jj

m EY y p 5 0, 2 6 0,3 7 0,25 8 0,1 9 0,15 6,70= = = ⋅ + ⋅ + ⋅ + ⋅ + ⋅ =∑

== 220 EXm =∑

i.i

2i px

2 2 2 2 22 0,17 2,5 0,26 3 0,19 3,5 0,17 4 0,21⋅ + ⋅ + ⋅ + ⋅ + ⋅ = 9,4575

== 202 EYm 2 2 2 2 2 2

j . jj

y p 5 0,2 6 0,3 7 0,25 8 0,1 9 0,15= ⋅ + ⋅ + ⋅ + ⋅ + ⋅ =∑ 46,60

( ) == XYEm11 ∑∑i j

ijji pyx +⋅⋅+⋅⋅+⋅⋅= 02,07205,0621,052

2,5 5 0,08 2,5 6 0,15 2,5 7 0,03 3 5 0,02 3 6 0,08

3 7 0,05 3 8 0,02 3 9 0,02 3,5 6 0,02 3,5 7 0,05

3,5 8 0,05 3,5 9 0,05 4 7 0,01 4 8 0,03 4 9 0,08 20,725

+ ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ +

+ ⋅ ⋅ + + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ +

+ ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ =

=−= 21020

2X mmσ 9,4575 22,995 0,49− = , Xσ 0,49 0,7= =

=−= 20102

2Y mmσ 46,6 26,7 4,71− = , Yσ 1,71 1,3= =

( ) =Y,Xcov 11 10 01m m m 20,725 2,995 6,70 0,66− = − ⋅ = 1,46

X Y

cov(X, Y) 0,66ρ 0,72

σ σ 0,7 1,3= = =

Widzimy, Ŝe współczynnik korelacji zmiennych losowych X i Y jest dość wysoki, więc ma sens aproksymacja zaleŜności tych zmiennych losowych zaleŜnością liniową, czyli wyznaczenie regresji liniowej II rodzaju

YY

X

σ 1,3α ρ 0,72

σ 0,7= = ⋅ =1,35,

Y 01 Y 10m m 6,7 1,35 2,995 2,65β = − α = − ⋅ =

y 1,35x 2,65= + równanie prostej regresji II rodzaju zm. los. Y względem zm. los. X

Y 1,35X 2,65= + regresja liniowa II rodzaju zm. los. Y względem zm. los. X

Współczynnik Yα 1,35= oznacza, Ŝe wzrostowi ceny jednostki towaru o 1 zł odpowiada średni

wzrost podaŜy o 1,35 tys. sztuk towaru. Natomiast współczynnik Yβ 2,65= nie ma interpretacji

ekonomicznej.

Wartości liniowej regresji II rodzaju i regresji I rodzaju (patrz przykład 8.4) zmiennej losowej Y dla wszystkich wartości zmiennej losowej X przedstawia tabela

ix 2 2,5 3 3,5 4

i iy 1,35x 2,65= + 5,4 6,0 6,7 7,4 8,1

)x(my i2i = 5,5 5,8 6,7 7,8 7,6

Obie regresje przedstawione są na rys. 8.5.

Page 71: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

71

Rys. 8.5

Jako miarę błędu aproksymacji zmiennej losowej Y regresją liniową II rodzaju Y przyjmujemy wartość funkcji )βα,(g w punkcie )β,(α YY .

MoŜna obliczyć, Ŝe

)ρ1(σ)β,α(g 22YYY −=

Z drugiej strony 2

YY )YY(E)β,α(g −=

czyli jest momentem rzędu 2 zmiennej losowej YYZ −= , a poniewaŜ

0)mαm(mαm

bEXαm)bXα(EmYEEYEZ

10Y0110Y01

YY01YY01

=−−−=

=−−=+−=−=

więc )β,α( YYg jest wariancją zmiennej losowej YYZ −= . Oznaczmy ją 2Zσ i nazywamy

wariancją resztową zmiennej losowej Y. Zatem:

Miara błędu aproksymacji zmiennej losowej Y liniową regresją II rodzaju Y jest równa wariancji 2

Zσ zmiennej losowej YYZ −= (wariancji resztowej) i wyraŜa się wzorem

2Zσ = )ρ1(σ 22

Y −

Wnioski

1. Błąd aproksymacji zmiennej losowej Y regresją liniową II rodzaju Y jest największy, gdy współczynnik korelacji ρ zmiennych losowych X i Y jest równy zeru, tzn. gdy te zmienne są nieskorelowane. Wtedy takŜe współczynnik Yα 0= , co oznacza, Ŝe prosta regresji jest

równoległa do osi Ox.

2. Błąd aproksymacji zmiennej losowej Y regresją liniową II rodzaju Y jest najmniejszy (równy zeru), gdy współczynnik korelacji ρ zmiennych losowych X i Y ma moduł równy jeden. Wtedy zmienne losowe są zaleŜne liniowo (z prawdopodobieństwem 1).

Wariancja resztowa jest bezwzględną miarą błędu aproksymacji zmiennej losowej Y regresją

liniową II rodzaju Y . W praktyce wygodniej posługiwać się miarami względnymi. Skonstruujemy

taką miarę. Mamy

( ) ( )0101 mYYYmY −+−=−

Podnosimy do kwadratu obie strony tej równości.

( ) ( ) ( )( )01

2

01

2201 mYYY2mYYY)mY( −−+−+−=−

i obliczmy wartości oczekiwane

( ) ( ) ( )( )[ ]01

2

01

2201 mYYYE2mYEYYE)mY(E −−+−+−=−

Page 72: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

72

Lewa strona powyŜszej równości jest wariancją zmiennej losowej Y (oznaczenie 2Yσ ), pierwszy

składnik prawej strony, to znana nam wariancja resztowa 2Zσ , drugi składnik jest wariancją

liniowej regresji II rodzaju Y ( oznaczenie 2

Yσ ), bowiem

( ) 01010101 mammamEXXEYE =−+=β+α=β+α=

Natomiast trzeci składnik, jak moŜna wykazać jest równy zeru. Zatem 2

Yσ = 2Zσ + 2

Yσ równość wariancyjna

Podzielimy obie strony tej równości przez 2Yσ

12

Y

2

Y2

Y

2Z =

σ

σ+

σ

σ

Oznaczmy

=ϕ22

Y

2Z

σ

σ

Liczba 2ϕ jest miarą względną błędu aproksymacji zmiennej losowej Y liniową regresją II Y i ma

własności

1. 2ϕ = 21 ρ− (bo 2Zσ = )ρ1(σ 22

Y − )

2. ≤0 2ϕ 1≤ ( wynika to z równości 12

Y

2Y

2Y

2Z =

σ

σ+

σ

σ)

3. 2ϕ = 0 wtedy i tylko wtedy, gdy zmienne losowe są zaleŜne liniowo,

4. 2ϕ =1 wtedy i tylko wtedy, gdy zmienne losowe X i Y są nieskorelowane.

Oznaczmy

=ν 22

Y

2

Y

σ

σ

Liczba 2ν jest miarą względną stopnia zdeterminowania wartości zmiennej losowej Y przez

wartości regresji Y i ma własności

1. 2ν = 2ρ (bo +2ϕ 2ν = 1 i 2ϕ = 21 ρ− )

2. ≤0 2ν 1≤

3. 2ν = 0 wtedy i tylko wtedy, gdy zmienne losowe X i Y są nieskorelowane

4. 2ν =1 wtedy i tylko wtedy, gdy zmienne losowe są zaleŜne liniowo.

Liczba 2ν bywa nazwana współczynnikiem determinacji, bowiem podaje ona w jakim stopniu

wartości zmiennej losowej Y są zdeterminowane wartościami Y regresji liniowej II rodzaju. Wtedy liczbę 2ϕ nazywamy współczynnikiem indeterminacji. Podaje on w jakim stopniu wartości

zmiennej losowej Y są zdeterminowane przez inne przyczyny niŜ regresja. ZauwaŜmy jeszcze, Ŝe dla ρ>0 mamy Ya 0> , więc zmienną losową Y aproksymujemy zaleŜnością

liniową rosnącą, natomiast, gdy ρ<0, to zmienną losową Y aproksymujemy zaleŜnością liniową

malejącą. W pierwszym przypadku mówimy, Ŝe zmienne losowe są skorelowane dodatnio,

w drugim przypadku, Ŝe są skorelowane ujemnie.

Page 73: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

73

Wniosek Wartość bezwzględna współczynnika korelacji informuje nas o sile związku liniowego

zmiennych losowych, natomiast znak współczynnika korelacji o tym czy związek ten jest rosnący

czy malejący.

Przykład 8.7

Dla danych z przykładu obliczymy współczynniki determinacji i indeterminacji zmiennej losowej Y.

Rozwiązanie

W przykładzie 8.6 obliczyliśmy, Ŝe ρ = 0,72, zatem 2ν = 2ρ = 0,72 2 = 0,52 współczynnik determinacji 2ϕ = 21 ρ− = 0,48 współczynnik indeterminacji.

Interpretacja Popyt na towar jest w 52% zdeterminowany przez cenę jednostki towaru i w 48% przez inne czynniki ( np. przez czynniki losowe).

MoŜna takŜe wprowadzić pojęcie regresji liniowej II rodzaju cechy X względem cechy Y. Mianowicie:

Regresja liniowa II rodzaju zmiennej losowej X względem zmiennej losowej Y jest to zmienna

losowa

XX βYαX +=

gdzie liczby XX βiα są wyznaczone tak, by funkcja

[ ]2)βα()βα,( +−= YXEg

miała w punkcie )β,α( XX wartość najmniejszą.

Prostą o równaniu

XX βyαx +=

nazywamy prostą regresji II rodzaju zmiennej losowej X względem zmiennej losowej Y.

Liczby XX βiα nazywamy współczynnikami prostej regresji II rodzaju cechy X względem cechy

Y. Współczynnik Xα oznacza średni przyrost zmiennej losowej X, gdy zmienna losowa Y wzrośnie

o jednostkę, natomiast współczynnik Xβ jest odciętą punktu przecięcia prostej

regresji XX βyαx += z osią Ox.

Współczynniki regresji liniowej zmiennej losowej X względem zmiennej losowej Y wyraŜają się wzorami

ρσ

σα

Y

XX = , 01X10X mαmβ −= współczynniki regresji liniowej X względem Y

yρσ

σx

Y

X= + 01Y

X10 mρ

σ

σm − równanie prostej regresji II rodzaju X względem Y

Yρσ

σX

Y

X= + 01Y

X10 mρ

σ

σm − regresja liniowa II rodzaju liniowa X względem Y

Miarą bezwzględną aproksymacji zmiennej losowej X liniową regresją II rodzaju jest wariancja

zmiennej losowej XXU −=

2Uσ = 2

Xσ )1( 2ρ− wariancja resztowa zmiennej losowej X

Page 74: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

74

PoniewaŜ współczynnik korelacji zmiennych losowych Y i X jest taki sam jak zmiennych losowych X i Y, więc współczynnik determinacji zmiennej losowej X jest taki sam jak zmiennej losowej Y. To samo dotyczy współczynnika indeterminacji.

Przykład 8.8

Dla zmiennej losowej dwuwymiarowej (X,Y) z przykładu 8.6 wyznaczymy prostą regresji II rodzaju cechy X względem cechy Y.

Rozwiązanie

Posługujemy się wielkościami obliczonymi w tym przykładzie :

ρσ

σα

Y

XX = =

0,700,72 0,39

1,3⋅ = , 01X10X mαmβ −= = 2,995 0,39 6,7− ⋅ = 0,41

x 0,39y 0,41= + równanie prostej regresji II rodzaju zmiennej losowej X względem zmiennej losowej Y.

Na rysunku 8.6 przedstawione są obie proste regresji II rodzaju zmiennej losowej Y względem zmiennej losowej X i zmiennej losowej Y względem zmiennej losowej X.

Rys. 8.6

Oznaczenia do rysunku: 1) Prosta regresji liniowej II rodzaju zmiennej losowej Y względem zmiennej losowej X 2) Prosta regresji liniowej II rodzaju zmiennej losowej X względem zmiennej losowej Y

Uwagi

1. Proste regresji II rodzaje zmiennej losowej Y względem zmiennej losowej X oraz zmiennej losowej X względem zmiennej losowej Y są na ogół róŜnymi prostymi.

2. Obie proste regresji II rodzaju przecinają się w punkcie ),( 0110 mm . 3. Jeśli moduł współczynnika korelacji jest równy 1, to obie proste regresji II rodzaju pokrywają

się. 4. Jeśli zmienne losowe są nieskorelowane, to proste regresji II rodzaju są prostopadłe

i równoległe do osi układu.

Page 75: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

75

9. PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA

W wielu problemach probabilistycznych znajomość rozkładów prawdopodobieństwa jest kluczowa. Wiedza o tych rozkładach jest niezbędna do rozwiązania szeregu praktycznych problemów, m.in. dotyczących oszacowania określonych charakterystyk zmiennych losowych, czy teŜ symulowania lub prognozowania ich wartości. Znajomość rozkładów prawdopodobieństwa określonych zmiennych losowych warunkuje takŜe rozwiązanie szeregu problemów teoretycznych statystyki matematycznej w zakresie estymacji parametrów czy weryfikacji hipotez.

9.1. Rozkłady skokowe

9.1.1. Rozkład jednopunktowy

Rozkład jednopunktowy w punkcie c, zwany takŜe rozkładem Diraca, jest to rozkład prawdopodobieństwa zmiennej losowej skokowej X o funkcji prawdopodobieństwa

( ) 1cXP == czyli

( ) 0cXP =≠

Dystrybuanta rozkładu jednopunktowego ma postać

>

≤=

cdla x

cdla x

1

0)x(F

Wartość oczekiwana EX = c, a wariancja D2X=0. NaleŜy podkreślić, Ŝe rozkład jednopunktowy jest jedynym rozkładem o wariancji równej zeru (nie ma rozproszenia od wartości oczekiwanej).

9.1.2. Rozkład dwupunktowy

Zmienna losowa X ma dwupunktowy rozkład prawdopodobieństwa z parametrami a, b i p, jeŜeli ma funkcję prawdopodobieństwa

( )

=

=−==

bdla x

adla x

p

p1xXP a < b

Dystrybuanta rozkładu dwupunktowego ma postać

( )

>

≤<

−=

b dla x

bx dla a

a dla x

1

p1

0

xF

Wartość oczekiwana pba)p1(EX +−= ; wariancja ( )( )22 bap1pXD −−= .

JeŜeli a = 0 i b =1 to rozkład dwupunktowy nazywa się rozkładem zerojedynkowym.

Zmienne losowe o rozkładzie dwupunktowym są modelami słuŜącymi do opisu własności urządzeń dwustanowych, jak np. wszelkiego rodzaju układy przekaźnikowe.

Rozkładem dwupunktowym (zerojedynkowym) posługujemy się takŜe wtedy, gdy w doświadczeniu spodziewamy się tylko dwóch wyników. Jeden z nich czasami nazywamy sukcesem i spodziewamy się go z prawdopodobieństwem p . Drugi nazywamy niepowodzeniem lub poraŜką i jest on oczekiwany z prawdopodobieństwem p1q −= . Taka sytuacja moŜe dotyczyć losowego sprawdzania wyrobów. Wprowadzamy zmienną losową, która przyjmuje wartość 1, gdy wylosowany wyrób posiada określone wady, a 0 gdy Ŝadnych wad nie stwierdzono. Wtedy parametr p nazywany jest wadliwością partii.

Page 76: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

76

Wartość oczekiwana i wariancja rozkładu zerojedynkowego są równe:

pq0p1EX

pq0p1EX222 =⋅+⋅=

=⋅+⋅=

Zatem

( ) qpp1pppmm 222

2 ⋅=−=−=−=σ

9.1.3. Rozkład dwumianowy

Schemat Bernoulliego Mówimy, Ŝe ciąg doświadczeń jest wykonany według schematu Bernoulliego, jeśli spełnione są dwa poniŜsze warunki:

a) w wyniku kaŜdego doświadczenia moŜe zajść zdarzenie A, zwane sukcesem lub zdarzenie do niego przeciwne A’ zwane poraŜką;

b) wyniki poszczególnych doświadczeń są niezaleŜne, przy czym prawdopodobieństwo sukcesu w kaŜdym doświadczeniu jest takie samo.

Tak więc poszczególne doświadczenia moŜna modelować zmiennymi losowymi niezaleŜnymi o tym samym rozkładzie zerojedynkowym z parametrem p będącym prawdopodobieństwem sukcesu w jednym doświadczeniu.

Tabela 9.1. Przykłady prób Bernoulliego

Lp Próby Bernoulliego Sukces PoraŜka

b) Rzut monetą Orzeł Reszka

c) Strzelanie do celu Trafienie Nie trafienie

d) Losowanie ze zwracaniem

sztuk towaru Sztuka wadliwa Sztuka dobra

Liczba sukcesów Niech zmienna losowa X oznacza liczbę sukcesów w n doświadczeniach Bernoulliego. MoŜna wykazać, Ŝe prawdopodobieństwo wystąpienia k sukcesów w n doświadczeniach wyraŜa się wzorem

P(X = k) =

k

n kp knq −

gdzie k = 0, 1,........, n, p jest prawdopodobieństwem sukcesu w jednym doświadczeniu

( )p 0;1∈ , zaś p1q −= jest prawdopodobieństwem poraŜki w tym doświadczeniu.

O zmiennej losowej X, której funkcja prawdopodobieństwa ma powyŜszą postać mówimy, Ŝe ma rozkład dwumianowy lub rozkład Bernoulliego z parametrami n i p. MoŜna obliczyć, Ŝe dla rozkładu dwumianowego

npq,npm 2 =σ= 17 Deska Galtona jest praktyczną wizualizacją schematu Bernoulliego. Jest to deska z rozmieszczonymi na kształt trójkąta gwoździami. Kulki spuszczane z góry odbijają się od gwoździ na róŜne strony, a ich ostateczne połoŜenie jest całkowicie losowe. JeŜeli przyjmiemy, Ŝe spadek w prawą stronę oznaczymy jako 1 (sukces), zaś spadek w lewo jako 0 (poraŜka), to deska Galtona moŜe słuŜyć jako przykład moŜliwości zdarzeń losowych - mało prawdopodobny jest spadek zawsze w lewą lub prawą stronę, a najbardziej prawdopodobna jest średnia wartość (mniej więcej równa liczba sukcesów i poraŜek). Rys. 9.1.

17 Dowód podano w punkcie 20.6. części VII Wybrane twierdzenia z dowodami

Page 77: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

77

Zmienna losowa o rozkładzie dwumianowym moŜe być traktowana jako suma n zmiennych niezaleŜnych o takim samym rozkładzie dwupunktowym z parametrem p.

Przykład 9.1

Prawdopodobieństwo trafienia do celu w jednym strzale wynosi 4

3. Do celu oddano niezaleŜnie 6

strzałów. Obliczymy prawdopodobieństwo, Ŝe cel został trafiony: a) jeden raz, b) ani razu, c) co najmniej raz, d) co najwyŜej raz.

Rozwiązanie

Niech sukcesem będzie trafienie do celu w jednym strzale, zaś X zmienną losową oznaczającą liczbę celnych strzałów spośród 6 strzałów. Zmienna losowa ma rozkład dwumianowy

z parametrami n = 6, p = 4

3=0,75.

a) P(X = 1) =

1

6

4

35

4

1

= 2048

9 = 0,0044

Sposób obliczenia prawdopodobieństwa za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek

Wykorzystano funkcję statystyczną ROZKŁAD.DWUM wpisując wymagane dane i parametr FAŁSZ (moŜna wpisać takŜe 0 – dotyczy to takŜe innych funkcji).

b) P(X = 0) =

0

6

0

4

3

6

4

1

= 4096

1 = 0,0002

Sposób obliczenia prawdopodobieństwa za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek

Page 78: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

78

Tak jak poprzednio wykorzystano funkcję statystyczną ROZKŁAD.DWUM wpisując wymagane dane i parametr FAŁSZ.

c) P(X ≥ 1) = 1 – P(X < 1) = 1 – P(X = 0) = 1 – 0,0002 = 0,9998

d) P(X ≤ 1) = P(X = 0) + P(X = 1) = 0,0002 + 0,0044 = 0,0046

Sposób obliczenia prawdopodobieństwa za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek

Wykorzystano funkcję statystyczną ROZKŁAD.DWUM wpisując wymagane dane i parametr PRAWDA (moŜna wpisać takŜe 0 – dotyczy to takŜe innych funkcji).

Page 79: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

79

Przykład 9.2

Prawdopodobieństwo trafienia do celu w jednym strzale wynosi 0,6. Ile strzałów naleŜy oddać niezaleŜnie, aby z prawdopodobieństwem 0,95 lub większym, cel był trafiony co najmniej raz?

Rozwiązanie

Niech X oznacza liczbę celnych strzałów spośród n strzałów. Zgodnie z treścią zadania powinno być:

P(X ≥ 1) ≥ 0,95 ale

P(X ≥ 1) = 1 – P(X < 1) = 1 – P(X = 0) = 1 – ( n)4,0 więc

1 – ( n)4,0 ≥ 0,95 stąd

( n)4,0 ≤ 0,05 i po obliczeniu otrzymujemy, Ŝe n ≥ 4.

9.1.4. Rozkład geometryczny

Zmienna losowa X skokowa ma rozkład geometryczny z parametrem p, jeśli jej funkcja prawdopodobieństwa wyraŜa się wzorem:

( ) ( ) 1p0,...2,1np1pnXP 1n <<=−== −

Wartość oczekiwana: p

1EX = Wariancja:

22

p

p1XD

−=

Interpretacja. Zmienna losowa o rozkładzie geometrycznym oznacza numer doświadczenia Bernoulliego, w którym sukces wypadnie po raz pierwszy.

Przykład 9.3 W partii towaru, w której prawdopodobieństwo wylosowania sztuki wadliwej wynosi 0,35 naleŜy określić prawdopodobieństwo, Ŝe podczas losowania wadliwa sztuka pojawi się za trzecim razem.

2 2P(X 3) 0,35 (1 0,35) 0,35 0,65 0,147875= = ⋅ − = ⋅ = Sposób obliczeń za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek

Wykorzystano funkcję statystyczną ROZKŁAD.DWUM.PRZEC wpisując wymagane dane.

Page 80: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

80

9.1.5. Rozkład Poissona

Zmienna losowa skokowa ma rozkład Poissona z parametrem λ, jeśli jej funkcja prawdopodobieństwa wyraŜa się wzorem:

( ) 0,...,2,1,0,!

>=== − λλ λ

kek

kXPk

Rozkład Poissona jest stablicowany (patrz tablica w punkcie 2 części VII). Parametr λ jest wartością oczekiwaną oraz wariancją zmiennej losowej X.

Zgodnie z lokalnym twierdzeniem Poissona (patrz pkt 8.3.) moŜna w prosty sposób obliczyć przybliŜoną wartość prawdopodobieństwa w rozkładzie Bernoulliego, przy duŜej liczbie prób i niskim prawdopodobieństwie sukcesu, w oparciu o rozkład Poissona w sposób następujący

( ) λλ −− ≈

== e

kqp

k

nkXP

kknk

n ! (przybliŜenie Poissona)

gdzie np=λ .

Przykład 9.4

Wadliwość produkcji oporników wynosi 0,015. Obliczymy prawdopodobieństwo, Ŝe w pudełku liczącym 200 oporników będą dwa wadliwe.

Rozwiązanie

Niech X będzie zmienną losową oznaczającą liczbę oporników wadliwych w pudełku liczącym 200 sztuk. NaleŜy obliczyć P(X = 2). PoniewaŜ X ma rozkład dwumianowy o parametrze p=0,015, więc:

( ) 1982 985,0015,02

2002XP ⋅⋅

==

Wartość powyŜszego wyraŜenia obliczamy stosując przybliŜenie Poissona. Mamy 3015,0200np =⋅= , więc:

( ) 32

1982

!2

3985,0015,0

2

2002 −≈⋅⋅

== eXP

Z tablicy rozkładu Poissona (pkt 2) dla k=2 i λ= 3 odczytujemy wartość P(X=2)=!2

3 32 −e

= 0,2240

i ostatecznie otrzymujemy, Ŝe P(X = 2) = 0,2240

Lokalne twierdze Poissona (patrz pkt 7.3.) wyjaśnia genezę rozkładu Poissona, mianowicie rozkład ten jest granicą ciągu rozkładów dwumianowych. Inne wyjaśnienie jest następujące:

RozwaŜmy pewne zjawisko i zdarzenie, które moŜe zachodzić w losowych chwilach np. • Zjawisko – rozpad radioaktywny, zdarzenie - wyemitowanie cząsteczki α • Zjawisko – obsługa rozmów telefonicznych zgłaszanych do centrali, zdarzenie – zgłoszenie

rozmowy do centrali. • Produkcja na automatycznej linii detali, zdarzenie – wyprodukowanie detalu wadliwego.

Page 81: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

81

Niech Xt będzie zmienną losową oznaczającą liczbę wystąpień wyróŜnionego zdarzenia w czasie od 0 do t (w czasie t). Zakładamy, Ŝe spełnione są warunki: • Liczby wystąpień tego zdarzenia w rozłącznych przedziałach czasu są zmiennymi losowymi

niezaleŜnymi, dla dowolnie wielu tych przedziałów, czyli dla losowo wybranych chwil

o 1 2 nt t t ... t< < < < zmienne losowe t t t t t t t0 1 0 2 1 n n 1X , X X , X X ,...., X X

−− − − są niezaleŜne.

• Dla dowolnego przedziału czasu prawdopodobieństwo wystąpienia zdarzenia w przedziale czasu zaleŜy tylko od jego długości.

• Prawdopodobieństwo wystąpienia zdarzenia tylko jeden raz w krótkim przedziale czasu o długości t wynosi

( )tot +λ gdzie o(t) dąŜy do zera szybciej niŜ t, tzn.

0t

)t(olim

0t=

• Dla przedziału o krótkiej długości t prawdopodobieństwo wystąpienia zdarzenia więcej niŜ raz wynosi o(t). Oznacza to, Ŝe zdarzenia nie mogą zachodzić parami.

• W chwili t = 0 wyróŜnione zdarzenie nie wystąpiło, czyli 0P(X 0) 1= =

MoŜna udowodnić, Ŝe przy spełnieniu powyŜszych warunków zmienna losowa Xt ma rozkład Poissona z parametrem λt, czyli prawdopodobieństwo, Ŝe w czasie t zdarzenie zajdzie k razy wyraŜa się wzorem

( )k

tt

( t)P X k e , k 0,1,2,..., 0 , t 0

k!−λλ

= = = λ > ≥

2t tEX t, D X t= λ = λ

Z powyŜszych równości wynika, Ŝe parametr λ jest średnią liczbą wystąpień zdarzenia w czasie jednostki czasu, jak równieŜ wariancją liczby tych wystąpień.

Przykład 9.5

Badano występowanie awarii urządzenia elektronicznego. Na podstawie wielokrotnych obserwacji ustalono, Ŝe średnia liczba awarii na godzinę wynosi 0,001 oraz, Ŝe spełnione są warunki przedstawione powyŜej. Zatem zmienna losowa Xt oznaczająca liczbę awarii w czasie t ma rozkład Poissona z parametrem 0,001t. NaleŜy obliczyć, Ŝe w czasie 2000 godzin: a) nie wystąpi awaria b) wystapią co najwyŜej dwie awarie. Rozwiązanie

a) Z tablicy rozkładu Poissona dla λ=2000 ⋅ 0,001=2 i k=0 odczytujemy P(X2000=0)=

135,0!0

2 20

=−e

Zatem prawdopodobieństwo, Ŝe w czasie 2000 godzin nie wystąpi awaria wynosi P( X2000 = 0) = 135,0

Sposób rozwiązania przykładu za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek

Page 82: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

82

Wykorzystano funkcję statystyczną ROZKŁAD.POISSON wpisując wymagane dane i parametr FAŁSZ.

b) Z tablicy rozkładu Poissona dla λ=2000 ⋅ 0,001=2 odczytujemy P(X2000=0)= 135,0!0

2 20

=−e

P(X2000=1)= 271,0!1

2 20

=−e P(X2000=2)= 271,0!2

2 20

=−e Zatem prawdopodobieństwo, Ŝe w

czasie 2000 godzin wystąpią co najwyŜej dwie wynosi P( X2000 ≤2) = P(X2000=0)+ P(X2000=1)+ P(X2000=2)=0,135 + 0,271 + 0,271 = 0,676

Sposób rozwiązania przykładu za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek

Wykorzystano funkcję statystyczną ROZKŁAD.POISSON wpisując wymagane dane i parametr PRAWDA.

Page 83: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

83

9.1.6. Powiązanie rozkładów skokowych

Rys. 9.2 a

Rys. 9.2 b

Rozkład dwupunktowy

Rozkład zerojedynkowy

Rozkład dwumianowy

Rozkład geometryczny

Rozkład Poissona

Schemat Bernoulliego

Rozkład dwumianowy

Page 84: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

84

9.2. Rozkłady ciągłe

9.2.1. Rozkład jednostajny

Rozkład jednostajny (zwany teŜ równomiernym lub prostokątnym) w przedziale (a ; b) jest to ciągły rozkład prawdopodobieństwa, dla którego gęstość prawdopodobieństwa w tym przedziale jest stałą dodatnią, a poza nim jest równa zeru.

PoniewaŜ rozkład jest ciągły, nie ma większego znaczenia czy punkty a i b włączy się do przedziału czy nie. Rozkład jest określony parą parametrów a i b, takich, Ŝe b>a.

Rozkład jednostajny w przedziale (a, b) jest to rozkład zmiennej losowej ciągłej o gęstości

( )0 dla x a lub x b

f x 1dla a x b

b a

< >

= < < −

a < b

Dystrybuanta wyraŜa się wzorem

( )

>

≤<−−

=

bx dla 1

bxa dla ab

ax

ax dla 0

xF

Parametry rozkładu18

2

baEX

+= środek przedziału (a, b)

12

)ab(XD

22 −

= rozproszenie zaleŜy od długości przedziału

MoŜna wykazać, Ŝe jeŜeli X jest dowolną ciągłą zmienną losową o dystrybuancie F(x), to zmienna losowa Y = F(X) ma rozkład jednostajny w przedziale (0, 1).

Oznacza to, Ŝe kaŜda zmienna losowa ciągła o dystrybuancie F(x) moŜe być transformowana za pomocą przekształcenia Y = F(X) na zmienną losową o rozkładzie jednostajnym w przedziale [0,1]. Wykorzystuje się to zarówno w zastosowaniach teoretycznych (m.in. dowodzenie twierdzeń), jak i praktycznych (generowanie sygnałów losowych).

Zmienną losową o rozkładzie jednostajnym wykorzystuje się w metodzie Monte Carlo19. Wyobraźmy sobie, Ŝe chcemy wyznaczyć pole koła wpisanego w kwadrat. W tym celu za pomocą generatora rozkładu jednostajnego wyznaczamy wewnątrz kwadratu duŜo losowych punktów. Następnie zliczamy te punkty, które wpadają do wnętrza koła. Pole koła jest w przybliŜeniu równe:

Pn

nP 1

1 =

gdzie: P1 – pole koła P – pole kwadratu n1 – liczba punktów w kole Rys. 9.3 n – liczba wszystkich punktów

http://www.i-lo.tarnow.pl/edu/inf/alg/calki/pages/005.php

18 Dowód podano w punkcie 20.6. części VII Wybrane twierdzenia z dowodami 19 Metoda Monte Carlo (MC) jest stosowana do modelowania matematycznego procesów zbyt złoŜonych, aby moŜna było

obliczyć ich wyniki za pomocą podejścia analitycznego. Istotną rolę w metodzie MC odgrywa losowanie (wybór przypadkowy) wielkości charakteryzujących proces, przy czym losowanie dotyczy rozkładów znanych skądinąd.

Page 85: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

85

9.2.2. Rozkłady normalne

Rozkład normalny jednowymiarowy

Rozkład normalny, zwany teŜ rozkładem Gaussa, jest jednym z najwaŜniejszych rozkładów prawdopodobieństwa. Pełni waŜną rolę zarówno w rozwaŜaniach teoretycznych, jak równieŜ w najrozmaitszych zastosowaniach. Rozkład ten jest często spotykany wśród zjawisk mających charakter przyrodniczy, fizyczny, ekonomiczny i techniczny. Przykładowo rozkładowi normalnemu podlegają:

• Losowe błędy pomiarów czy obserwacji; • Losowe odchyłki wartości cechy wyrobów od nominalnej (znamionowej) jej wartości; • Losowe zakłócenia w kanale nakładające się na przesyłane sygnały.

Zmienna losowa ciągła X ma rozkład normalny N(m, σ), jeśli jej gęstość wyraŜa się wzorem:

2(x m)221

f (x) e2

−−

σ=πσ

Rys 9.4

Gęstość rozkładu normalnego N(m,σ)

Wykres gęstości f(x) jest symetryczny względem prostej y = 020, ma maksimum w punkcie x = m

wynoszące 1/( 2 )πσ , zaś punkty x = m ±σ są punktami przegięcia tej funkcji.

Parametr m jest wartością oczekiwaną zmiennej losowej X, zaś σσσσ jest odchyleniem standardowym tej zmiennej

21. Na rys. 9.5 przedstawione są wykresy gęstości trzech zmiennych losowych o rozkładzie normalnym, przy czym wartość oczekiwana jest dla wszystkich zmiennych taka sama, zaś odchylenia standardowe są odpowiednio równe 1σ < 2σ < 3σ . Widać wyraźnie, Ŝe im mniejsze jest

odchylenie standardowe σ, tym rozkład jest bardziej skupiony dokoła wartości oczekiwanej. Jest to zgodne z wcześniej podaną interpretacją parametru σ.

Rys.9.5

20 Dowód podano w punkcie 20.6. części VII Wybrane twierdzenia z dowodami 21 Dowód podano w przykładzie zamieszczonym w punkcie 22.2. części VII Wybrane twierdzenia z dowodami

Page 86: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

86

Zmienna losowa Y o rozkładzie normalnym N(0,1) ma gęstość:

( )2x

21f x e

2

−=

π

Rys.9.6

Gęstość rozkładu normalnego N(0,1)

Dystrybuanta tej zmiennej wyraŜa się wzorem:

( )2tx21

x e dt2

−∞

Φ =π∫

PoniŜszy rysunek pokazuje wykres dystrybuanty rozkładu normalnego N(0, 1). Wartości tej dystrybuanty są pokazane takŜe na rysunkach 9.5 i 9.7

Rys. 9. 7

Dystrybuanta rozkładu normalnego N(0,1)

Funkcje f(x) i Ф(x) są stablicowane dla argumentów z przedziału <0; 4,99) (patrz tablice w punktach 3 i 4). Dla argumentów co najmniej równych 5 gęstość jest praktycznie równa 0, natomiast dystrybuanta 1. Przy obliczaniu wartości tych funkcji dla x ujemnych korzystamy ze wzorów:

f(-x) = f(x)

Ф(-x) = 1 - Ф(x)

Pierwszy wzór jest oczywisty, drugi jest zilustrowany na rys 9.8

Rys 9.8

Ф(x)

Page 87: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

87

Przykład 9.6

Zmienna losowa X ma rozkład normalny N(0 ,1). Obliczymy prawdopodobieństwa P(X 2), P( 1 X 3), P(X 6).< − − ≤ < ≥

Rozwiązanie

P(X 2) ( 2) 1 (2)< − = Φ − = − Φ Z tablicy 4 odczytujemy wartość Φ(2)=0,97725

Zatem

P(X 2) ( 2) 1 (2) 1 0,97725< − = Φ − = − Φ = − = 0,02275.

Wartość dystrybuanty moŜna otrzymać takŜe arkusza kalkulacyjnego Excel, ilustruje poniŜszy rysunek

Wykorzystano funkcję statystyczną ROZKŁAD.NORMALNY.S22 wpisując wartość argumentu.

Postępując analogicznie otrzymujemy

18413,09987,01)1()3()1()3()31( −+=−Φ+Φ=−Φ−Φ=<≤− XP ==0,8400 011)6(1)6(1)6( =−=Φ−=<−=≥ XPXP

Standaryzacja

Jeśli zmienna losowa X ma rozkład normalny N(m,σ), to zmienna losowa

X mY

σ

−=

ma rozkład normalny N(0, 1), czyli przez standaryzację zmiennej losowej X o rozkładzie normalnym

N(m,σ) otrzymujemy zmienną losową standaryzowaną Y o rozkładzie normalnym N(0,1)23.

22 Wartość dystrybuanty dla rozkładu normalnego N(m,σ) moŜna otrzymać wykorzystując funkcję

ROZKŁAD.NORMALNY 23 Dowód dla dowolnego rozkładu podano w punkcie 20.5. części VII Wybrane twierdzenia z dowodami

Page 88: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

88

Przykład 9.7

Czas naprawy pewnego urządzenia (w godzinach) jest losową X o rozkładzie normalnym N(8,2). Obliczymy prawdopodobieństwa P(X 5), P(6 X 11)< ≤ ≤ , P(X 12).> Rozwiązanie

X 8 5 8P(X 5) P P(Y 1,5) ( 1,5) 1 ( 1,5) 1 0,93319 0,06681

2 2

− − < = < = < − = Φ − = − Φ − = − =

P(6 X 11)≤ ≤ =6 8 X 8 11 8

P2 2 2

− − − ≤ < =

P( 1 Y 1,5)− ≤ ≤ =

(1,5) ( 1) (1,5) (1) 1 0,9332 0,8413 1= Φ − Φ − = Φ + Φ − = + − = 0,7745

X 8 12 8P(X 12) P P(Y 2) 1 (2) 0,02275

2 2

− − > = > = > = − Φ =

Obliczone prawdopodobieństwa zilustrowane są na rys. 9.9

Rys. 9.9

Interpretacja otrzymanych prawdopodobieństw: • około 6,7% napraw wykonywanych jest w czasie krótszym od 5 godzin, • około 77,5% napraw wykonywanych jest w czasie od 6 do 11 godzin, • około 2,3% napraw wykonywanych jest w czasie dłuŜszym od 12 godzin.

Przykład 9.7a

Czas naprawy pewnego urządzenia (w godzinach) jest losową X o rozkładzie normalnym N(8,2). Wymagamy, aby prawdopodobieństwo naprawy wynosiło 0,9. Jaki czas na naprawę naleŜy w tym przypadku zarezerwować?

Rozwiązanie

Szukany czas wyznaczamy z równania

gr grgr

x 8 x 8X 8P(X x ) P ( ) 0,9

2 2 2

− − −< = < = Φ =

Z tabeli … odczytujemy argument dystrybuanty dla którego jest ona równa 0,9

Zatem równanie do wyznaczenia xgr ma postać

grx 81,28

2

−=

Czyli grx 2 1,28 8 2,56 8 10,56= ⋅ + = + =

Page 89: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

89

Argument dystrybuanty moŜna otrzymać takŜe arkusza kalkulacyjnego Excel, ilustruje poniŜszy rysunek

Wykorzystano funkcję statystyczną ROZKŁAD.NORMALNY.ODW24 wpisując wymagane dane.

Przykład 9.8

Zmienna losowa X ma rozkład normalny N(m,σ). Obliczymy prawdopodobieństwo a) P( X m kσ)− < , gdzie k 0> , następnie prawdopodobieństwa b) P( X m σ)− < ,

c) P( X m 2σ),− < d) P( X m 3σ)− < .

Rozwiązanie.

a) P( X m kσ)− < = ( ) X mP kσ X m kσ P k k (k) ( k) 2 (k) 1

σ

− = − < − < = − < < == Φ − Φ − = Φ −

Stąd b) P( X m σ) 2 (1) 1 2 0,8413 1 0,6826 68%− < = Φ − = ⋅ − = ≈

c) P( X m 2σ) 2 (1) 1 2 097725 1 0,9545 95%− < = Φ − = ⋅ − = ≈

d) P( X m 3σ) 2 (3) 1 2 0,998650 1 0,9973 99,73%− < = Φ − = ⋅ − = ≈

PowyŜsze prawdopodobieństwa zilustrowane są na rys. 9.10

Rys 9.10

24 Argument dystrybuanty dla rozkładu normalnego N(0,1) moŜna otrzymać wykorzystując funkcję

ROZKŁAD.NORMALNY.S.ODW

Page 90: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

90

Teoretycznie zmienna losowa o rozkładzie normalnym przyjmuje wartości od −∞ do + ∞ , praktycznie jednak prawie wszystkie wartości tej zmiennej (około 99,73%) naleŜą do przedziału (m 3σ;m 3σ)− + , czyli do otoczenia wartości oczekiwanej o promieniu równym trzem odchyleniom standardowym (reguła trzysigmowa). Długość tego przedziału zaleŜy od wartości σ, co jeszcze raz potwierdza interpretację tego parametru.

Przykład 9.9 Przypuśćmy, Ŝe wzrost męŜczyzn jest modelowany zmienną losową X o rozkładzie normalnym N(175 cm, 5 cm). Uwzględniając wyniki otrzymane w przykładzie 9.8 moŜemy stwierdzić, Ŝe około 68% męŜczyzn ma wzrost od 170 cm do 180 cm, około 95% męŜczyzn ma wzrost od 165 do 185 cm, natomiast około 99,73% męŜczyzn ma wzrost od 160 do 190 cm. Zgodnie z regułą trzech sigm przedziałem typowego wzrostu męŜczyzn jest przedział (160 cm; 190 cm). ZauwaŜmy, Ŝe

X 175 0 175P(X 0) P ( 37)

5 5

− − < = < = Φ −

>0

czyli w przyjętym modelu prawdopodobieństwo, Ŝe męŜczyzna ma wzrost ujemny jest dodatnie, jednak jest niewyobraŜalnie małe. Dlatego róŜnica między zjawiskiem a jego modelem jest w tym przypadku niewielka, niemniej zdarzenie, Ŝe X < 0 nie jest w tym modelu zdarzeniem niemoŜliwym. Widzimy, Ŝe zjawisko i jego matematyczny model mogą się róŜnić, model doświadczenia losowego jest idealizacją i uproszczeniem tego doświadczenia.

Rozkład normalny odgrywa wyjątkowo wielką rolę w rachunku prawdopodobieństwa zarówno teoretyczną jaki i praktyczną, bowiem wiele twierdzeń w rachunku prawdopodobieństwa jest prawdziwych przy załoŜeniu, Ŝe zmienna losowa ma rozkład normalny oraz wiele waŜnych doświadczeń losowych moŜe być modelowanych tym rozkładem.

Podamy teraz jeszcze trzy waŜne własności rozkładu normalnego.

Jeśli zmienna losowa X ma rozkład normalny N(m,σ), to zmienna losowa

Y aX b= + a 0≠

ma rozkład normalny N(am + b, |a|σ), zatem funkcja liniowa zmiennej losowej o rozkładzie

normalnym ma rozkład normalny25

.

Jeśli zmienne losowe X i Y są niezaleŜne o rozkładach normalnych N(m1,σ1) i N(m2,σ2), to zmienna

losowa Z = X + Y ma rozkład normalny 2 21 2 1 2N(m m , σ σ )+ + , czyli suma zmiennych losowych

niezaleŜnych o rozkładach normalnych ma rozkład normalny26

.

Jeśli zmienne losowe X i Y są niezaleŜne o rozkładach normalnych N(m1,σ1) i N(m2,σ2), to zmienna

losowa Z = X - Y ma rozkład normalny 2 21 2 1 2N(m m , σ σ )− + , czyli róŜnica zmiennych losowych

niezaleŜnych o rozkładach normalnych ma rozkład normalny.

Przykład 9.10

Cena jednostkowa pewnego towaru jest zmienną losową X o rozkładzie normalnym N(20,2). PodaŜ Y tego towaru zaleŜy od ceny jednostkowej: Y = 5X+10. Obliczymy prawdopodobieństwo, Ŝe podaŜ nie przekroczy 150.

Rozwiązanie

Zmienna losowa Y ma rozkład normalny N(5 20 10, 5 2)⋅ + ⋅ = )10,110(N .

Zatem Y 110 150 110

P(Y 150) P (4) 0,9999710 10

− − ≤ = ≤ = Φ =

Odp. Prawdopodobieństwo, Ŝe podaŜ nie przekroczy 150 wynosi 0,99997. Prawdopodobieństwo to jest bardzo duŜe, więc moŜna uznać, iŜ jest praktycznie pewne zajście tego zdarzenia.

25 Dowód podano w punkcie 20.7. części VII Wybrane twierdzenia z dowodami 26 Dowód podano w punkcie 20.7. części VII Wybrane twierdzenia z dowodami

Page 91: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

91

Przykład 9.11

Urządzenie złoŜone z dwóch bloków pracuje w ten sposób, Ŝe najpierw włączony jest pierwszy blok, a w chwili zepsucia się tego bloku włącza się drugi blok. Czasy pracy poszczególnych bloków są niezaleŜnymi zmiennymi losowymi o rozkładach normalnych N(60h, 4h) i N(80h, 3h). Obliczymy prawdopodobieństwo, Ŝe urządzenie będzie pracować co najmniej 160h.

Rozwiązanie

Niech X będzie zmienną losową oznaczającą czas pracy pierwszego bloku, Y czas pracy drugiego bloku, zaś Z czas pracy urządzenia. Z treści zadania wynika, Ŝe Z = X + Y, więc zmienna losowa Z

ma rozkład normalny N( 60+80 h, h)34 22 + = N(140 h, 5 h) oraz, Ŝe naleŜy obliczyć P(Z 150).≥ Zatem

Z 140 150 140P(Z 150) P 1 (2) 1 0,97725 0,02275

5 5

− − ≥ = ≥ = − Φ = − =

Odp. 2,3%.

Jedną z najwaŜniejszych własności rozkładu normalnego jest fakt, Ŝe przy pewnych załoŜeniach rozkład sumy duŜej liczby zmiennych losowych jest w przybliŜeniu normalny. Są to tak zwane centralne twierdzenia graniczne – patrz rozdział 8.

Rozkład normalny dwuwymiarowy

Dwuwymiarowa zmienna losowa (X, Y) ma rozkład normalny dwuwymiarowy ),,,m,m(N 2121 ρσσ , jeśli jej gęstość wyraŜa się wzorem:

f(x, y) =

σ

−+

σσ

−−ρ−

σ

ρ−−

ρ−σπσ

22

2)2my(

21

)2my)(1mx(2

21

2)1mx(

)21(2

1

221

e12

1

Znaczenie parametrów występujących w powyŜszym wzorze jest następujące: 1m = EX,

2m = EY, 21σ = XD2 , 2

2σ = YD2 , ρ - współczynnik korelacji zmiennych losowych X i Y.

Własności dwuwymiarowego rozkładu normalnego: Jeśli (X,Y) ma rozkład ),,,m,m(N 2121 ρσσ , to

• X ma rozkład N( 1m , 1σ )

• Y ma rozkład N( 2m , 2σ ).

• Zmienne losowe nieskorelowane są niezaleŜne • Regresja I rodzaju jest funkcją liniową, a więc krzywe regresji I i II rodzaju pokrywają się.

Przykład 9.12

Dana jest gęstość dwuwymiarowej zmiennej losowej (X,Y) o rozkładzie normalnym 2w / 21

f (x, y) e9,6

−=Π

gdzie2 2

2 1 (x 1) yw 0,2y(x 1)

0,36 4 16

−= − − +

a) Wyznaczymy parametry tego rozkładu. b) Wyznaczymy rozkłady brzegowe zmiennych losowych X i Y. c) Wyznaczymy krzywe regresji I rodzaju zmiennej losowej Y względem zmiennej losowej X i

zmiennej losowej X względem zmiennej losowej Y.

Page 92: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

92

Rozwiązanie

a) Wykładnik 2w moŜna zapisać w postaci 2 2

22 2 2

1 (x 1) x 1 y yw 2 0,8

2 41 0,8 2 4

− −= − ⋅ +

zaś 2w / 2

2

1f (x, y) e

2 2 4 1 0,8

−=Π ⋅ ⋅ −

Z powyŜszych równości odczytujemy, Ŝe 1 2 1 2m 1, m 0, σ 2, σ 4, ρ 0,8= = = = = . Zatem zmienna losowa dwuwymiarowa (X,Y) ma dwuwymiarowy rozkład normalny N(1, 0, 2, 4, 0,8).

b) Zmienna losowa X ma rozkład normalny N(1, 2), zaś zmienna losowa Y ma rozkład normalny N(0,4) .

c) PoniewaŜ krzywa regresji I rodzaju jest dla rozkładu normalnego dwuwymiarowego jest toŜsama z prostą regresji II rodzaju, więc krzywa regresji I rodzaju zmiennej losowej Y względem zmiennej losowej X jest linią prostą o równaniu

Y Yy x= α + β

gdzie

YY

X

σ 4ρ 0,8 1,6,

σ 2α = = ⋅ = Y 01 Y 10m m 0 1,6 1 1,6β = − α = − ⋅ = −

Zatem y 1,6x 1,6= −

jest równaniem prostej regresji I i II rodzaju zmiennej losowej Y względem zmiennej losowej X, natomiast krzywa regresji I rodzaju zmiennej losowej X względem zmiennej losowej Y jest prostą o równaniu

X xx y= α + β , gdzie

XX

Y

σ 2ρ 0,8 0,4,

σ 4α = = ⋅ = X 10 X 01m m 1 0,4 0 1β = − α = − ⋅ =

Zatem x 0,4y 1= +

jest równaniem prostej regresji I i II rodzaju zmiennej losowej X względem zmiennej losowej Y.

Przykład 9.13

Zmienna losowa X oznacza cenę jednostki towaru (w zł.), zaś zmienna losowa Y popyt na ten towar (w tys. sztuk). Wiadomo, Ŝe zmienna losowa dwuwymiarowa (X,Y) ma rozkład dwuwymiarowy normalny N(10, 30, 0,5, 1,5, - 0,9). Znajdziemy równanie prostej regresji zmiennej losowej Y względem zmiennej losowej X.

Rozwiązanie

Y Yy x= α + β gdzie

YY

X

σ 1,5ρ ( 0,9) 2,7,

σ 0,5α = = ⋅ − = − Y 01 Y 10m m 30 ( 2,7) 10 57β = − α = − − ⋅ =

zatem y 2,7x 57= − + to równanie prostej regresji I i II rodzaju zmiennej losowej Y względem zmiennej losowej X

Interpre tac ja współczynnika Y 2,7α = −

Jeśli cena jednostki towaru zwiększy się o 1 zł., to popyt na ten towar zmniejszy się o 2,7 tys. sztuk.

Page 93: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

93

Przykład 9.14

Zmienna losowa dwuwymiarowa ciągła (X,Y) ma gęstość 2 2(x 6) (y 4)

8 181f (x, y) e

12

+ −− −

Sprawdzimy, czy zmienne losowe X i Y są niezaleŜne.

Rozwiązanie

Daną gęstość moŜna zapisać w postaci 2 21 (x 6) (y 4)

2 22 2 31f (x, y) e

2 2 3

+ − − + =

Π ⋅ ⋅

zatem zmienna losowa dwuwymiarowa (X,Y) ma rozkład dwuwymiarowy normalny N(-6, 4, 2, 3,0). PoniewaŜ ρ=0, więc zmienne losowe X i Y są nieskorelowane, a dla rozkładu dwuwymiarowego normalnego oznacza, Ŝe są niezaleŜne. Odp. Zmienne losowe X i Y są niezaleŜne.

9.2.3. Rozkład wykładniczy

Zmienna losowa X ma rozkład wykładniczy z parametrem a, jeśli jej gęstość wyraŜa się wzorem:

( )axae dla x 0

f x0 dla x 0

− >=

≤ a > 0

MoŜna obliczyć, Ŝe m = EX = 1/a oraz σ2=D2X = 1/a2

Rozkład wykładniczy jest przykładowo modelem czasu Ŝycia atomu pierwiastka promieniotwórczego, czasu między dwoma kolejnymi wezwaniami w centrali telefonicznej, czasu między dwoma kolejnymi uszkodzeniami urządzenia (maszyny).

Rozkład wykładniczy jest rozkładem gamma dla p=1 i dowolnego, nieujemnego a.

9.2.4 Rozkład chi kwadrat

Niech zmienne losowe 1X , 2X , …, nX będą niezaleŜne i kaŜda z nich ma rozkład N(0, 1). O zmiennej losowej

nY = 21X + 2

2X + … + 2nX

mówimy, Ŝe ma rozkład 2χ (chi kwadrat) z n stopniami swobody.

Dowodzi się, Ŝe rozkład 2χ z n stopniami swobody jest szczególnym przykładem rozkładu gamma

==2

1a ,

2

np , więc gęstość zmiennej losowej nY wyraŜa się wzorem:

( )

n y1

2 2n2

1y e dla y 0

nf y 2 ( )2

0 dla y 0

− − >

= Γ ≤

Rozkład 2χ jest stablicowany (patrz tablica w punkcie 5 części VII). Z tablicy tej dla stopni swobody

1, 2, …,30 i niektórych wartości )1,0(∈α , odczytujemy liczbę αu taką, Ŝe:

P( nY ≥ αu ) = α Ilustruje to rysunek 6.11.

Page 94: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

94

Rys. 6.11

Jeśli liczba stopni swobody jest większa od 30, to zmienna losowa nY2 ma w przybliŜeniu rozkład

normalny N( 1n2 − , 1).

Przykład 6.15

a) Zmienna losowa Y17 ma rozkład 2χ z 17 stopniami swobody. Obliczyć P( 17Y ≥ 10).

b) Zmienna losowa 61Y ma rozkład 2χ z 61 stopniami swobody. Obliczyć P( 61Y ≥ 50).

Rozwiązanie

a) Z tabeli 5 odczytujemy dla liczby stopni swobody r = 17 wartość α dla której P(Yr ≥ 10) = α

Zatem szukane prawdopodobieństwo P( 17Y ≥ 10) jest równe 0,9

Prawdopodobieństwo moŜna otrzymać takŜe za pomocą arkusza kalkulacyjnego Excel, co ilustruje poniŜszy rysunek

Wykorzystano funkcję statystyczną ROZKŁAD.CHI27 wpisując wymagane dane.

b) Przy obliczeniu prawdopodobieństwa skorzystamy z faktu, Ŝe zmienna losowa 61Y2 ma w

przybliŜeniu rozkład N(11, 1) i wykorzystamy tablicę 4 z częśći VII

P( 61Y ≥ 50) = P( 61Y ≥ 100) = P( 61Y2 ≥ 10) = P( 61Y2 - 11 ≥ -1) =

= 1 - Ф(-1) = Ф(1) = 0,8413

27 Argument moŜna otrzymać wykorzystując funkcję ROZKŁAD.CHI.ODW po podaniu prawdopodobieństwa i stopni

swobody

Page 95: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

95

Dokładną wartość prawdopodobieństwo moŜna otrzymać za pomocą arkusza kalkulacyjnego Excel, co ilustruje poniŜszy rysunek

Tak jak poprzednio wykorzystano funkcję statystyczną ROZKŁAD.CHI wpisując wymagane dane.

9.2.5. Rozkład Studenta

Niech zmienne losowe X i nY będą zmiennymi losowymi niezaleŜnymi X o rozkładzie normalnym

N(0, 1), zaś nY o rozkładzie 2χ z n stopniami swobody. O zmiennej losowej:

nY

XT

n

n =

mówimy, Ŝe ma rozkład Studenta z n stopniami swobody. Gęstość zmiennej losowej nT wyraŜa się wzorem:

g(t) = 2

1n

nt )1(

1

)2

n(n

)2

1n(

2+

+Γπ

Wykres gęstości g(t) jest symetryczny względem prostej t = 0 i ma kształt zbliŜony (szczególnie dla duŜych n) do wykresu gęstości rozkładu normalnego N(0, 1) (rys.6.12) Rozkład Studenta jest stablicowany (patrz tablica w punkcie 6 części VII). Z tablicy tej dla stopni swobody 1, 2, ..., 30, 40, 60, 120 i niektórych wartości )1,0(∈α , odczytujemy liczbę αt taką, Ŝe: P(| nT | ≥ αt ) = α.

Rys. 6.12

Ilustruje to rysunek 6.12. W ostatnim wierszu tej tablicy podane są graniczne prawdo-podobieństwa, gdy liczba stopni swobody dąŜy do nieskończoności. Są to prawdopodobień-stwa obliczane wg rozkładu normalnego N(0, 1), gdyŜ ciąg dystrybuant rozkładów T Studenta przy liczbie stopni swobody dąŜącej do nieskończoności jest zbieŜny do dystrybuanty rozkładu normalnego N(0, 1).

Page 96: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

96

Przykład 6.15a

Dla α=0,1 i liczby stopni swobody równej 5 wyznaczyć wartość αt dla której P(| nT | ≥ αt ) = α.

Z tablic rozkładu Studenta

odczytujemy, Ŝe 1,0t =2,015

Wartość 1,0t moŜna otrzymać takŜe za pomocą arkusza kalkulacyjnego Excel, co ilustruje poniŜszy

rysunek

Wykorzystano funkcję statystyczną ROZKŁAD.T.ODW wpisując wymagane dane.

W arkuszu Excel dostępna jest takŜe funkcja pozwalająca wyznaczyć dla liczby stopni swobody prawdopodobieństwo α na podstawie αt

Page 97: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

97

Wykorzystano funkcję statystyczną ROZKŁAD.T wpisując wymagane dane – parametr Ślady=2 określa rozkład dwustronny (dla uzyskania rozkładu jednostronnego naleŜy podać parametr Ślady=1). 9.2.6. Rozkład Snedecora

Niech 1nX i

2nY będą zmiennymi losowymi niezaleŜnymi o rozkładach 2χ z 1n i 2n stopniami

swobody. O zmiennej losowej:

F = 2

1

n1

n2

Yn

Xn

mówimy, Ŝe ma rozkład Snedecora z parą ( 1n , 2n ) stopni swobody.

Rozkład Snedecora jest stablicowany (patrz tablice w punkcie 7 części VII). Z tablic tych dla α = 0,01 lub α = 0,05 i dla niektórych stopni swobody ( 1n , 2n ) odczytujemy liczbę αf taką, Ŝe:

P(F ≥ αf ) = α

Przykład 6.15b

Dla liczby stopni swobody (32, 20) wyznaczyć wartość f0,01 dla której P(F ≥ 01,0f ) = 0,01

Z tablic rozkładu Snedecora

odczytujemy, Ŝe 01,0f =1,91

Wartość 01,0f moŜna otrzymać takŜe za pomocą arkusza kalkulacyjnego Excel, co ilustruje poniŜszy

rysunek

Page 98: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

98

Wykorzystano funkcję statystyczną ROZKŁAD.F.ODW wpisując wymagane dane.

W arkuszu Excel dostępna jest takŜe funkcja pozwalająca wyznaczyć dla liczby stopni swobody prawdopodobieństwo α na podstawie αf

Wykorzystano funkcję statystyczną ROZKŁAD.F wpisując wymagane dane.

Page 99: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

99

9.2.8. Powiązania rozkładów ciągłych

Rys. 9.13

Uwaga: Oznaczają z jakich rozkładów tworzony jest rozkład wynikowy

Rozkład N(m,σ)

Rozkład N(0,1)

Rozkład Gamma

Rozkład wykładniczy

Rozkład Beta

Rozkład jednostajny

2

1

X

X

Rozkład Cauchy’ego

.

.

.

X1: )1,0(N

X2: )1,0(N

Xn: )1,0(N

Yn=2n

22

21 X...XX +++

Rozkład χ2 o n stopniach swobody

Tn= nY

X

n

1

Rozkład T Studenta o n stopniach swobody

Ym Rozkład χ2 o m

stopniach swobody

m

n

Yn

Ym

Rozkład Snedecora o (n,m) stopniach

swobody

Page 100: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

100

9.3 Zestawienie rozkładów

9.3.1. Zestawienie rozkładów skokowych

Tabela 9.2. Zestawienie rozkładów skokowych

L p Nazwa

rozkładu

Funkcja prawdopodobieństwa

Własności rozkładu

Funkcja

charakterystyczna

Funkcja tworząca

prawdopodobieństwa

Wartość oczekiwana

Wariancja

Parametry

1

Rozkład jedno –punktowy w punkcie c

P(X c) 1= = Rozkład wykorzystywany w prawach wielkich liczb.

itc

c

(t) e

(s) s

ϕ =

φ =

m c= 2 0σ =

2

Rozkład zerojedynkowy z parametrem p

P(X 1) p,

P(X 0) 1 p q

= =

= = − =

Szczególny przypadek rozkładu dwumianowego (n = 1) Parametr p oznacza frakcję elementów populacji o wyróŜnionej własności

it(t) pe q

(s) ps q

ϕ = +

φ = +

m p= 2

k

pq

m p

σ =

=

3

Rozkład dwumianowy z parametrami n i p

k n knP(X k) p q

k−

= =

p (0;1), q 1 p

k 0,1,2,..., n

∈ = −

=

Rozkład liczby sukcesów: P(X=k) oznacza prawdopodobień – stwo, Ŝe w n doświadczeniach Bernoulliego sukces wypadnie k razy, p -prawdopodobieństwo sukcesu q – prawdopodobieństwo poraŜki

( )( )

nit

n

(t) pe q

(s) ps q

ϕ = +

φ = +

m= np σ2 = npq

4

Rozkład geometryczny z parametrem p

k 1P(X k) q p

k 1,2, , , , , ,; p (0;1)

−= =

= ∈q=1-p

P(X=k) oznacza prawdopodo- bieństwo, Ŝe w ciągu doświadczeń Bernoulliego sukces wypadnie pierwszy raz w doświadczeniu o nu- merze k

it

it

pe(t)

1 qeϕ =

ps(s)

1 qsφ =

22

1m

p

q

p

=

σ =

5

Rozkład Poissona z parametrem λ

P(X = k) = λ−λe

!k

k

(k = 0, 1, 2, ...;

λ > 0)

PrzybliŜenie Poissona k

knp q e ; np

k k!−λ λ

≈ λ =

n – duŜe, p - małe.

it(e 1)

(s 1)

(t) e

(s) e

λ −

λ −

ϕ =

φ =

2

m = λ

σ = λ

Page 101: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

101

9.3.2. Zestawienie rozkładów ciągłych

Tabela 9.3. Zestawienie rozkładów ciągłych

Lp Nazwa

rozkładu

Gęstość Funkcja charakterystyczna

Własności rozkładu

Wartość oczekiwana

Wariancja

Parametry

1

Rozkład jednostajny w przedziale (a; b)

1dla x (a;b)

f (x) b a0 dla x (a;b)

∈= − ∉

ibt iate edla t 1

(t) it1 dla t 1

− ≠

ϕ = =

22

b am

2

(b a)

12

+=

−σ =

2

Rozkład normalny N(0,1)

2x21

f (x) e2

−=

π

2t2(t) e

−ϕ = Gęstość f(x) i dystrybuanta (x)Φ są stablicowane f ( x) f (x); ( x) 1 (x)− = Φ − = − Φ

2

m 0

1

=

σ =

3

Rozkład normalny N(m,σ)

2(x m)221

f (x) e m R, 02

−−

σ= ∈ σ >σ π

2 2itm t / 2(t) e −σϕ = Jeśli Y ma rozkład N(0,1), X ma rozkład N(m,σ), to

X m

Y−

standaryzacja

oraz X Y m= σ +

2 2

2k 1

2k

2k

EX m,

D X

0

(2k 1)!!

=

= σ

µ =

µ =

= σ −

4

Rozkład gamma z parametrami a i p

pp 1 ax

p 1 x

0

ax e dla x 0

f (x) (p)

0 dla x 0

(p) x e dx, a 0, p 0

− −

∞− −

>

= Γ ≥

Γ = > >∫

( )

p

p

a(t)

a itϕ =

pm

a=

22

p

aσ =

5

Rozkład Rayleigha z parametrem σ

2 2x /(2 )2

xe dla x 0

f (x) 0

0 dla x 0

− σ >= σ >σ ≤

2 2

EX2

D X (2 / 2)

π= σ

= σ − π

6

Rozkład Pareto z parametrami a i x0

a 10

000

0

xadla x x

f (x) a, x 0x x

0 dla x x

+ > = >

20

22 0

2

am x dla a 1

a 1

a x

(a 1) (a 2)

dla a 2

= >−

σ =− −

>

Page 102: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

102

Lp Nazwa

rozkładu

Gęstość Funkcja charakterystyczna

Własności rozkładu

Wartość oczekiwana

Wariancja

Parametry

7

Rozkład wykładniczy z parametrem a

axae dla x 0f (x) a 0

0 dla x 0

− >= >

a(t)

a itϕ =

Rozkład wykładniczy jest szczególnym przypadkiem rozkładu gamma (p = 1)

1m

a=

2

2

1

aσ =

8

Rozkład χ2 (chi kwadrat) z n stopniami swobody

n / 2 1 x / 2n / 2

1x e dla x 0

f (x) 2 (n / 2)

0 dla x 0

n N

− − >= Γ ≤

( )n / 2

1(t)

1 2itϕ =

Rozkład χ2 jest szczególnym przypadkiem rozkładu gamma a= 0,5, p = n/2

Rozkład χ2 z n stopniami swobody jest rozkładem

zmiennej losowej 2 2 2n 1 2 nY X X X= + + + ,

gdzie 1 n2X , X ,...,X są zmiennymi losowymi

niezaleŜnymi o rozkładach normalnych N(0,1). Rozkład χ2 jest tablicowany.

m n= 2 2nσ =

9

Rozkład beta z parametrami p i q

p 1 q 1(p q)f (x) x (1 x) dla x (0,1)

(p) (q)

0 dla x (0,1)

− −Γ + = − ∈ Γ Γ ∉

p, q >0

pm

p q=

+

22

pq

(p q) (p q 1)σ =

+ + +

10

Rozkład Cauchy’ego z parametrami λ i µ

2 2

1 1f (x)

(x )=

π λ + − µ λ>0

i t t(t) e µ −λϕ =

Momenty nie istnieją

11

Rozkład Laplace’a z parametrami λ i µ

x1

f (x) e2

−µ−

λ=λ

λ >0

t

2 2

e(t)

1 t

µ

ϕ =+ λ

m=µ σ2=2λ2

Page 103: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

103

Lp Nazwa

rozkładu

Gęstość Funkcja charakterystyczna

Własności rozkładu

Wartość oczekiwana

Wariancja

Parametry

12

Rozkład Studenta z n stopniami swobody

2 (n 1) / 2

((n 1) / 2) 1dla

n (n / 2) (1 t / n)

f (t) t 0

0 dla t 0

n N

+

Γ + πΓ +

= > ≤

∈ Dla n 30≥ gęstość rozkładu Studenta i gęstość rozkładuN(0,1) mało się róŜnią.

Rozkład Studenta jest stablicowany.

Rozkład Studenta z n stopniami swobody jest rozkładem

zmiennej losowej nn

XT n

Y= ,

gdzie X i Yn są zmiennymi losowymi niezaleŜnymi, X o rozkładzie N(0,1), Yn o rozkładzie χ2 z n stopniami swobody.

2 nn 1

m 0

dla n 2

dla n 3−

=

σ =

13

Rozkład Erlanga z parametrami a i m

mm 1 axa

x e dla x 0f (x) (m 1)!

0 dla x 0

a 0, m N

− −>

= − ≥

> ∈

( )

m

m

a(t)

a itϕ =

mm

a=

22

m

aσ =

14

Rozkład Snedecora z m i n stopniami swobody

( )( )( ) ( )

( )( )

n / 2 m / 2 1

m n / 2

m n / 2m x

f (x) m / 2 n / 2n x n / m

0 dla x 0

+

Γ + = Γ Γ

+ ≤Rozkład Snedecora z m i n stopniami swobody jest

rozkładem zmiennej losowej X / m

FY / n

=

X – zmienna losowa o rozkładzie χ2 z m stopniami swobody, Y – zmienna losowa o rozkładzie χ2 z n stopniami swobody, X i Y zmienne losowe niezaleŜne Rozkład Snedecora jest tablicowany

n

mn 2dla n 2

=−

>

2

2

2

2n (m n 2)

m(n 2) (n 4)

dla n 4

σ =

+ −=

− −

>

Page 104: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

104

Lp Nazwa

rozkładu

Gęstość Funkcja charakterystyczna

Własności rozkładu

Wartość oczekiwana

Wariancja

Parametry

15

Rozkład Weibula z parametrami a i p

pp 1 axapx e dla x 0f (x) a 0,p 00 dla x 0

− >= > >≤

Rozkład Weibula jest dla p =1 rozkładem wykładniczym, natomiast dla p =2 i dla

2

1a

2=

σjest rozkładem Rayleigha.

1/ a

(1/ p)m

pa

Γ=

2

122 / p2p a

22p

p

1

p

σ = ×

Γ − ×

−Γ

16

Rozkład Logarytmicz-no normalny z parametrami m i σ

2 2(ln x m) /(2 )1e dla x 0

f (x) 0x 20 dla x 0

− − σ >= σ >σ π ≤

Rozkład logarytmiczno normalny jest to rozkład zmiennej losowej X będącej logarytmem naturalnym zmiennej losowej Y o rozkładzie normalnym N(m,σ) X = lnY Y ma rozkład N(m,σ).

17

Rozkład normalny dwuwymia – rowy N(m1, m2, σ1,

σ2, ρ)

2w / 2

1 2

1f (x, y) e

2 σ σ−=

Π

gdzie

( ) ( )2 21 22 1 2

2 2 21 21 2

x m y mx-m y m1w 2ρ

σ σ1 ρ σ σ

− −− = − + −

ρ0,σ,σ,, 2121 >∈ Rmm <1

( ) ( 2 2 2 21 2 1 1 2 2

1(t, u) exp i m t m u t 2 tu u

2 ϕ = + − σ + ρσ σ + σ

X ma rozkład 1 1N(m , )σ , Y ma rozkład 2, 2N(m )σ

Jeśli X i Y są nieskorelowane (ρ = 0), to są niezaleŜne. Regresje I i II rodzaju są identyczne.

1

2

2 21

2 22

EX m ,

EY m ,

D X ,

D ,

Wsp.korel.

=

=

= σ

= σ

= ρ

18

Rozkład normalny n wymiarowy

1 Tn / 2

1 1f (x) exp (x m)M (x m)

2(2 ) det M− = − − −

π

gdzie [ ] [ ]1 2 n 1 2 nx x , x ,...., x , m m ,m ,....m= =

ijM = µ - macierz kwadratowa stopnia n,

symetryczna , dodatnio określona.

i i

2i ii

i j

ij

EX m

D X

cov(X ,X )

dla i j

=

= µ

=

= µ ≠

Page 105: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

105

10. TWIERDZENIA GRANICZNE

10.1. Rodzaje twierdzeń granicznych

RozwaŜać będziemy ciągi zmiennych losowych określonych na zbiorze zdarzeń elementarnych Ω.

Twierdzenia graniczne są to twierdzenia podające warunki dostateczne lub warunki konieczne i dostateczne zbieŜności ciągów zmiennych losowych dla róŜnych rodzajów zbieŜności.

Zestawienie zbiorcze najwaŜniejszych twierdzeń granicznych przedstawiono w poniŜszej tabeli.

Tabela 10.1. Zestawienie twierdzeń granicznych

Naz

wa

twie

rdze

nia

TWIERDZENIA INTEGRALNE

TWIERDZENIA LOKALNE

PRAWA WIELKICH LICZB

Rod

zaj z

bieŜ

nośc

i

ZbieŜność według dystrybuant

ZbieŜność ciągu: • funkcji

prawdopodobieństwa, gdy zmienne losowe są skokowe,

• gęstości, gdy zmienne losowe są ciągłe.

ZbieŜność według prawdopodobieństwa

Wyk

az

twie

rdze

ń

• Twierdzenie Lindeberga-Levy’ego

• Integralne twierdzenie Moivre’a-Laplace’a

• Twierdzenie lokalne Poissona

• Twierdzenie lokalne Moivre’a-Laplace’a

• Prawo wielkich liczb Chinczyna

• Prawo wielkich liczb Bernoulliego

PoniewaŜ sformułowania twierdzeń granicznych są trudne dlatego ograniczymy się do podania wniosków z tych twierdzeń.

10.2. Twierdzenia integralne

10.2.1. ZbieŜność według dystrybuant

Oznaczenia: Xn, X - zmienne losowe, Fn - dystrybuanta zmiennej losowej Xn, F - dystrybuanta zmiennej losowej X.

Mówimy, Ŝe ciąg (Xn ) zmiennych losowych jest zbieŜny według dystrybuant do zmiennej losowej X, jeśli ciąg (Fn) jest zbieŜny do dystrybuanty F w kaŜdym punkcie jej ciągłości.

Interpretacja Jeśli n jest duŜą liczbą to dystrybuanta Fn mało róŜni się od dystrybuanty F, zatem prawdopodobieństwa: P(Xn < a), P(a ≤ X < b), P(X ≥ b), mogą być obliczone (w przybliŜeniu) za pomocą dystrybuanty F.

Jak wynika z powyŜszej tabeli twierdzenia integralne są to twierdzenia, w których bada się zbieŜność wg dystrybuant ciągów zmiennych losowych.

Twierdzenia integralne, w których zmienną losową graniczną jest zmienna losowa o rozkładzie normalnym N(0, 1) nazywamy twierdzeniami centralnymi rachunku prawdopodobieństwa.

10.2.2. Twierdzenie Lindeberga – Levy’ego

Dla duŜych n zmienna losowa

Page 106: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

106

Yn = X1 + X2 + … + Xn.

gdzie: X1, … , Xn są niezaleŜnymi zmiennymi losowymi o takim samym rozkładzie z wartością

oczekiwaną m i wariancją σ2 > 0 ma w przybliŜeniu rozkład normalny N( nm, σn ), stąd

nY nmP( a) (a)

n

−< ≅ Φ

σ, nY nm

P(a b) (b) (a)n

−≤ < ≅ Φ − Φ

σ

)b(1)bn

nmY(P n Φ−≅≥

σ

Przykład 10.1

Zmienne losowe 1X , 2X , …. 100X są niezaleŜne i mają rozkład Poissona z parametrem λ=4. Niech

∑=

=100

1kk100 XY

Obliczymy P(360 < nY ≤ 460).

Rozwiązanie

W rozkładzie Poissona wartość oczekiwana i wariancja są równe λ, więc w naszym przykładzie

4EXm k == , 24DXk ===σ , nm = 400, nσ = 20

97590,0197725,099865,01)2()3(

)2()3()20

400460

n

nmY

20

400360(P)460Y360(P n

n

=−+=−Φ+Φ=

=−Φ−Φ≈−

−≤

−=<≤

10.2.3. Integralne twierdzenie Moivre’a – Laplace’a

Dla duŜych n zmienna losowa X o rozkładzie dwumianowym z parametrami n i p ma rozkład

w przybliŜeniu normalny N(np, ( )p1np − ).

stąd

Φ(a)ap)np(1

npXP ≅

<

−, Φ(a)Φ(b)b

p)np(1

npXaP −≅

<

−≤

X npP b 1 Φ(b)

np(1 p)

−≥ ≅ − −

Przykład 10.2

Prawdopodobieństwo, Ŝe Ŝarówka przepali się w ciągu pewnego czasu T wynosi 4

1. Obliczymy

prawdopodobieństwo, Ŝe w ciągu tego czasu spośród 192 Ŝarówek przepalą się co najmniej 42 Ŝarówki i mniej niŜ 60 Ŝarówek.

Page 107: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

107

Rozwiązanie

Niech X będzie zmienną losową oznaczającą liczbę przepalonych Ŝarówek spośród 192 Ŝarówek. NaleŜy obliczyć )60X42(P <≤ . Do obliczenia szukanego prawdopodobieństwa zastosujemy wniosek z integralnego twierdzenia Moivre’a – Laplace’a.

83999,0184134,099865,01)1()3()1()3(

)3npq

npX1(P)

6

4860

npq

npX

6

4842(P)60X42(P

=−+=−Φ+Φ=−Φ+Φ≈

≈<−

≤−=−

<−

≤−

=<≤

10.2.5. Związek pomiędzy twierdzeniami granicznymi integralnymi

Rys. 10.1

10.2.6. Uwagi końcowe o twierdzeniach integralnych

Twierdzenia graniczne Moivre’a-Laplace'a i Lindeberga-Levy’ego wskazują na wyjątkową rolę rozkładu normalnego. Przyjmując dość ogólne załoŜenia na zmienne losowe X1, X2, …, Xn

stwierdzamy na podstawie tych twierdzeń, Ŝe zmienna losowa ∑=

=n

1kkn XY ma dla duŜych n rozkład

w przybliŜeniu normalny. W tych więc zagadnieniach praktycznych, w których obserwujemy wartości pewnej zmiennej losowej Y będącej sumą duŜej liczby zmiennych losowych niezaleŜnych, z których Ŝadna nie ma decydującego wpływu na wielkość tej sumy, naleŜy oczekiwać, Ŝe zmienna Y będzie miała w przybliŜeniu rozkład normalny.

Przykład 10.3

Pomiar wielkości fizycznej. Na wyniki pomiarów wpływa wiele drobnych, wzajemnie niezaleŜnych i nie dających się wyeliminować czynników, takich jak niewielkie zmiany temperatury, oświetlenia, wilgotności powietrza, zmiany w mechanizmie przyrządu, w psychice mierzącego itp. KaŜdy z tych czynników powoduje niewielki błąd elementarny, który jest zmienną losową. W rezultacie łącznego działania tych czynników pomiary są obarczone błędami, które nazywamy błędami przypadkowymi. Błąd przypadkowy jest więc zmienną losową będącą sumą duŜej liczby błędów elementarnych. MoŜna więc oczekiwać, Ŝe ma on rozkład normalny.

10.3. Twierdzenia lokalne

10.3.1. Twierdzenie Poissona

Twierdzenie Poissona orzeka, Ŝe dla duŜych n i małych p prawdopodobieństwa rozkładu dwumianowego mogą być obliczone przy pomocy prawdopodobieństwa rozkładu Poissona z parametrem np=λ .

P(Xn = k) =

k

n knp kn

n )p1( −− ≈ λ−λe

!k

k

dla k=0,1,2,…,n

Twierdzenie Lindeberga-

Levy’ego

Twierdzenie Moivre’a-

Laplace’a

Page 108: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

108

10.3.2. Lokalne twierdzenie Moivre’a – Laplace’a

Dla duŜych n prawdopodobieństwa rozkładu dwumianowego mogą być obliczone przy pomocy funkcji gęstości rozkładu normalnego

k

n kp knq −

−≅

npq

npkf

npq

1

gdzie f oznacza gęstość rozkładu N(0, 1).

Przykład 10.4

Prawdopodobieństwo, Ŝe Ŝarówka przepali się w ciągu pewnego czasu T wynosi 4

1. Obliczymy

prawdopodobieństwo, Ŝe w ciągu tego czasu spośród 192 Ŝarówek przepalą się 42 Ŝarówki.

Rozwiązanie

Niech X będzie zmienną losową oznaczającą liczbę przepalonych Ŝarówek spośród 192. NaleŜy obliczyć P(X = 42). Zmienna losowa X ma rozkład dwumianowy, więc:

( )15042

4

3

4

1

42

19242XP

==

PoniewaŜ iloczyn np= 48 jest duŜy, więc do obliczenia szukanego prawdopodobieństwa stosujemy przybliŜenie lokalne Moivre’a – Laplace’a.

0405,024197,06

1)1(f

6

1)1(f

6

1

6

4842f

6

1

4

3

4

1

42

192)42X(P

15042

===−=

−≈

==

Wartość f(1) odczytaliśmy w tablicy gęstości rozkładu normalnego N(0, 1) (tablica 3 - część VII).

10.4. Prawa wielkich liczb

10.4.1. ZbieŜność według prawdopodobieństwa.

Prawa wielkich liczb są to twierdzenia graniczne, w których bada się zbieŜność ciągów zmiennych losowych w sensie zbieŜności według prawdopodobieństwa (słabe prawa) lub w sensie zbieŜności z prawdopodobieństwem 1 (mocne prawa). W tym podręczniku ograniczymy się do rozwaŜenia jedynie słabych praw wielkich liczb.

Niech ( )nY będzie ciągiem zmiennych losowych określonych na zbiorze zdarzeń elementarnych Ω i

niech kaŜda ze zmiennych losowych nY ma wartość oczekiwaną

NndlamEYn ∈=

Mówimy, Ŝe ciąg ( )nY jest zbieŜny według prawdopodobieństwa do wartości oczekiwanej m, jeśli

dla dowolnej dodatniej liczby ε 1)mY(Plim n

n=ε<−

∞→

Mówimy wówczas, Ŝe dla ciągu ( )nY zachodzi prawo wielkich liczb. Oznacza to, Ŝe gdy n jest duŜe,

to prawdopodobieństwo, iŜ zmienna losowa nY przyjmie wartość z dowolnie małego (ale ustalonego)

otoczenia wartości oczekiwanej jest bliskie jedności, czyli nY ma rozkład silnie skupiony przy wartości oczekiwanej m. Tę interpretację zbieŜności według prawdopodobieństwa potwierdza poniŜsze twierdzenie:

Prawa wielkich liczb są szczególnym przypadkiem twierdzeń integralnych (ale nie są twierdzeniami centralnymi).

Page 109: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE

109

10.4.2. Prawo wielkich liczb Bernoulliego

−nX liczba sukcesów w n doświadczeniach Bernoulliego,

n

XY n

n = - częstość sukcesu (liczba sukcesów na jedno doświadczenie),

p - prawdopodobieństwo sukcesu w jednym doświadczeniu.

Prawo wielkich liczb Bernolulliego orzeka, Ŝe dla ciągu Yn zachodzi prawo wielkich liczb, co oznacza, Ŝe jeśli liczba doświadczeń Bernoulliego jest duŜa, to z prawdopodobieństwem bliskim jedności, częstość sukcesu Yn przyjmuje wartości mało róŜniące się od prawdopodobieństwa sukcesu p

nn

XY p

n= ≈

Prawo wielkich liczb Bernoulliego moŜna zapisać w postaci poniŜej zaleŜności

n

n

Xlim P( p ) 1

n→∞− < ε =

Z prawa wielkich liczb Bernoulliego wynika, Ŝe prawdopodobieństwo zdarzenia moŜe być oceniane przez częstość tego zdarzenia w długim ciągu powtórzeń doświadczenia, w którym to zdarzenie występuje.

Z powyŜszych faktów wynika, Ŝe uprawniona jest interpretacja prawdopodobieństwa zdarzenia za pomocą częstości tego zdarzenia.

Na podstawie twierdzenia integralnego Moivre’a – Laplace’a moŜna wykazać, Ŝe dla duŜych n zachodzi zaleŜność:

1pq

n2p

n

XP n −

εΦ≈

ε<− (ε > 0) (10.1)

Przykład 10.5

Wadliwość partii towaru wynosi 0,2. Z partii tej pobrano losowo ze zwracaniem próbę liczącą 400 sztuk. Obliczymy prawdopodobieństwo, Ŝe wadliwość w tej próbie będzie odchylać się od wadliwości partii towaru o mniej niŜ o 0,05.

Rozwiązanie

Niech 400X oznacza liczbę sztuk wadliwych w próbie liczącej 400 sztuk, wtedy 400

X 400 jest

wadliwością w tej próbie. Wadliwość partii wynosi p = 0,2, naleŜy zatem obliczyć

<− 05,02,0

400

XP 400 . Na podstawie wzoru (10.1) otrzymujemy:

9876,019938,02

1)5,2(218,02,0

40005,0205,02,0

400

XP 400

=−⋅=

=−Φ=−

⋅Φ≈

<−

10.4.3. Prawo wielkich liczb Chinczyna

Niech X1, …, Xn będą zmiennymi losowymi niezaleŜnymi o jednakowym rozkładzie o wartości oczekiwanej m. Prawo wielkich liczb Chinczyna orzeka, Ŝe dla ciągu nX zachodzi prawo wielkich liczb, to znaczy, Ŝe średnia arytmetyczna duŜej liczby zmiennych losowych niezaleŜnych o jednakowym rozkładzie o wartości oczekiwanej m przyjmuje przyjmuje wartości mało róŜniące się od m

nX m≈

Page 110: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W ...cieciura.net/mp/ksiazka/czesc3.pdf · PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWA Ń W INFORMATYCE 5 5. ZDARZENIA LOSOWE

RACHUNEK PRAWDOPODOBIEŃSTWA

110

Prawo wielkich liczb Chinczyna moŜna zapisać w postaci poniŜej zaleŜności

1)mY(Plim nn

=ε<−∞→

PowyŜsza interpretacja ma liczne zastosowania np. w teorii błędów przypadkowych. Dokonujemy duŜej liczby pomiarów pewnej wielkości m. Zakładamy, Ŝe pomiary są niezaleŜne, jednakowo dokładne i pozbawione systematycznego błędu. Otrzymane wyniki pomiarów moŜna traktować jako wartości zmiennych losowych niezaleŜnych o jednakowym rozkładzie o wartości oczekiwanej m. Z interpretacji prawa wielkich liczb Chinczyna wynika, Ŝe średnia arytmetyczna otrzymanych wyników pomiarów z praktyczną pewnością mało róŜni się od wielkości mierzonej m.

W prawie wielkich liczb Chinczyna, w odróŜnieniu od twierdzenia Lindeberga-Levy'ego, nie zakłada się, Ŝe zmienne losowe kX mają wariancję. Jeśli jednak załoŜyć, Ŝe zmienne te mają wariancję

2 0σ > , to z twierdzenia Lindeberga-Levy'ego moŜna wyprowadzić zaleŜność (dla duŜych n)

nn

P(| X m | ) 2 1 ε

− < ε ≈ Φ − δ , (ε > 0), (10.2)

Przykład 10.6

Dokonano 100 pomiarów pewnej wielkości fizycznej. Obliczyć prawdopodobieństwo, Ŝe średnia arytmetyczna tych pomiarów będzie odchylać się od wielkości mierzonej o mniej niŜ 0,05 cm, jeśli wiadomo, Ŝe odchylenie standardowe poszczególnego pomiaru wynosi 0,5 cm. Rozwiązanie. Niech 100X oznacza średnią ze stu pomiarów. Na podstawie wzoru (10.2) i danych zadania otrzymujemy:

1000,05 100

P(| X m |) 0,05) 2 1 2 (1) 1 2 0,84134 1 0,680,5

⋅− < ≈ Φ − = Φ − = ⋅ − ≈