Bimbały - Teoria; Oba Koła

43
Materiał na koło I 1. Podaj i zilustruj diagramami Venna prawa de Morgana na przykładzie 2 zdarzeń. (3 pkt) I prawo De Morgana: dopełnienie sumy zbiorów jest równe części wspólnej (iloczynowi) ich dopełnień

description

zen yolo man good stuff like you wanna learn sth

Transcript of Bimbały - Teoria; Oba Koła

  • Materia na koo I

    1. Podaj i zilustruj diagramami Venna prawa de Morgana na przykadzie 2 zdarze. (3 pkt)

    I prawo De Morgana:dopenienie sumy zbiorw jest rwne czci wsplnej (iloczynowi) ich dopenie

  • II prawo De Morgana:dopenienie czci wsplnej (iloczynu) zbiorw jest rwne sumie ich dopenie

  • 2. Podaj definicj i zilustruj diagramem Venna ukad zupeny zdarze. (4 pkt)

    Zdarzenia A1, A2, A3, ., An tworz ukad zupeny, gdy ich suma jest zdarzeniem pewnym, a take zdarzenia te s parami rozczne. Ukad zupeny zdarze jest rwnie nazywany cakowitym ukadem zdarze.

    Warunek 1. (suma zdarze jest zdarzeniem pewnym / suma prawdopodobiestw musi by rwna 1)

    Warunek 2. (zdarzenia s parami rozczne) dla

  • 3. Podaj aksjomatyczn definicj prawdopodobiestwa. (3 pkt)

    Prawdopodobiestwem nazywamy funkcj P(A), ktra kademu zdarzeniu losowemu A przyporzdkowuje pewn liczb rzeczywist, zgodn z aksjomatami.

    Wasnoci prawdopodobiestwa (aksjomaty):P(A) 0 1 P(A) 0P() = 1 (prawdopodobiestwo zajcia zdarzenia pewnego jest rwne 1)jeeli AnB = , to P(AuB) = P(A) + P(B) => jeeli zdarzenia A i B s rozczne to

    prawdopodobiestwo ich sumy jest rwne sumie prawdopodobiestw

    P() = 0Jeeli A i A' s zdarzeniami przeciwnymi, to P(A') = 1 P(A)P(AuB) = P(A) + P(B) P(AnB)

    4. Podaj definicj Laplace'a prawdopodobiestwa. (2 pkt)

    Prawdopodobiestwem zdarzenia A nazywamy stosunek liczby nA (okrelajcej ilo zdarze elementarnych, sprzyjajcych zajciu zdarzenia A) do liczby nW (okrelajcej ilo wszystkich zdarze elementarnych).

    Warunkiem stosowania tej definicji prawdopodobiestwa jest to, e wszystkie zdarzenia elementarne s jednakowo prawdopodobne (jest to tautologia).Wad tej definicji jest fakt, e obie liczby (zarwno nA, jak i nW) musz by skoczone i znane.

    5. Podaj geometryczn definicj prawdopodobiestwa. (2 pkt)

    Prawdopodobiestwo geometryczne zajcia zdarzenia A jest stosunkiem miary obszaru gA (ktry jest obszarem sprzyjajcym zajciu zdarzenia A) do obszaru G (ktry jest obszarem obejmujcym zajcie wszystkich moliwych zdarze). Jest ono okrelone wzorem:

    gdzie: gA obszar (powierzchnia, objto) sprzyjajcy zajciu zdarzenia AG obszar odpowiadajcy zajciu wszystkich moliwych zdarze

    W przeciwiestwie do definicji Laplace'a prawdopodobiestwa, w przypadku definicji geometrycznej zbiory nie musz by skoczone wystarczy, e maj one swoj reprezentacj geometryczn.

  • 6. Podaj czstociow definicj prawdopodobiestwa. (2 pkt)

    Jest to jedna z klasycznych definicji prawdopodobiestwa. Jeeli przy wielokrotnym powtarzaniu w jednakowych warunkach tego samego dowiadczenia (w wyniku ktrego moe zaj zdarzenie losowe A) czsto wystpowania tego zdarzenia, przy rosncej liczbie powtrze, dy do ustalonej wartoci to t wielko przyjmujemy za prawdopodobiestwo zajcia zdarzenia A.Prawdopodobiestwo zdarzenia jest abstrakcyjnym odpowiednikiem pojcia czstoci wystpienia zdarzenia w serii dowiadcze.

    7. Wyprowad wzr na prawdopodobiestwo sumy dwch zdarze losowych. (4 pkt)

    A B = A ( B \ A B) A ( B \ A B) = // zdarzenia s rozczne, a wic prawdopodobiestwo sumy jest

    rwne sumie prawdopodobiestwP ( A B ) = P ( A) + P ( B \ A B )

    B = ( A B) ( B \ A B) ( A B) ( B \ A B) = // zdarzenia s rozczne, a wic prawdopodobiestwo

    sumy jest rwne sumie prawdopodobiestwP (B) = P ( A B ) + P ( B \ A B )

    P ( A B ) = P ( A) + P ( B \ A B ) (*)P (B) = P ( A B ) + P ( B \ A B ) => P ( B \ A B ) = P(B) - P ( A B )

    podstawiamy do rwnania (*) i otrzymujemyP ( A B ) = P ( A) + P ( B ) P ( A B )

    wzr na prawdopodobiestwo sumy: P ( A B ) = P ( A) + P ( B ) P ( A B )c. n. d.

    8. Wyprowad wzr na prawdopodobiestwo sumy trzech zdarze losowych. (4 pkt)

  • 9. Podaj definicj prawdopodobiestwa warunkowego i jego wasnoci. (4 pkt)

    Prawdopodobiestwo warunkowe (zdarzenie A wystpio pod warunkiem, e zaszo zdarzenie B) jest oznaczone P(A|B) i jest definiowane wzorem:

    gdzie P(B) > 0

    analogicznie: prawdopodobiestwo warunkowe (zdarzenie B wystpuje pod warunkiem, e zaszo zdarzenie A) jest oznaczone P(B|A) i jest definiowane wzorem:

    gdzie P(A) > 0

    Prawdopodobiestwo warunkowe spenia wszystkie aksjomaty rachunku prawdopodobiestwa:1. 0 P(A|B) 1 2. P(|B)=13.

  • 10. Udowodni prawdziwo aksjomatw rachunku prawdopodobiestwa dla prawdopodobiestwa warunkowego. (5 pkt)

    Dowd 1.

    Dowd 2.P(|B) = P(nB) / P(B)nB = BP(|B) = P(B) / P(B) = 1

    Dowd 3.

  • 11. Podaj twierdzenie prawdopodobiestwie zupenym. (2 pkt)

    Jeeli zdarzenia B1, B2, B3, . , BN tworz ukad zupeny zdarze to (dla dowolnego zdarzenia A) jego bezwarunkowe prawdopodobiestwo (nazywane prawdopodobiestwem zupenym / prawdopodobiestwem cakowitym) moemy obliczy ze wzoru:

    12. Udowodnij twierdzenie o prawdopodobiestwie zupenym (5 pkt)

  • 13. Podaj twierdzenie Bayesa. (3 pkt)

    Jeeli zdarzenia Hn (n = 1, 2, , N) tworz ukad zupeny zdarze, to dla dowolnego zdarzenia A, dla ktrego P(A) > 0, prawdopodobiestwa warunkowe P(Hn | A) s dane wzorem:

    n = 1, 2, N

    14. Udowodnij twierdzenie Bayesa. (5 pkt)

    Dowd:

    n = 1, 2, . , N

    15. Podaj interpretacj twierdzenia Bayesa. (4 pkt)

    Interpretacja:- zdarzenia Hn to hipotezy stawiane odnonie przyczyny wyniku eksperymentu na podstawie wyniku eksperymentu (zdarzenia A); [mamy wynik eksperymentu (zdarzenie A) i na tej podstawie stawiamy hiptezy Hn dotyczce przyczyny wyniku eksperymentu]- twierdzenie Bayesa pozwala na obliczenie prawdopodobiestwa poszczeglnych hipotez, przy zaoeniu, e znany jest wynik eksperymentu,- prawdopodobiestwa poszczeglnych hipotez przy znanym skutku P(Hn|A) [prawdopodobiestwa a posteriori] obliczamy korzystajc z prawdopodobiestw:

    * warunkowych, wyniku eksperymentu przy znanej przyczynie (znanej hipotezie) P(A|Hn)* bezwarunkowych prawdopodobiestw hipotez- P(Hn) [prawdopodobiestwa a priori]

  • 16. Podaj definicj niezalenoci dla dwch zdarzenia losowych. (3 pkt)

    Mwimy, e dwa zdarzenia losowe s niezalene statystycznie wtedy i tylko wtedy, gdy:

    Dla zdarze niezalenych zachodzi:

    P ( A B ) = P ( A | B ) P (B ) = P (B | A ) P ( A ) P ( A B ) = P ( A ) P (B )

    17. Udowodnij, e jeeli zdarzenia losowe A i B s niezalene, to niezalene s take zdarzenia A i B'. (5 pkt)

    czy P(B'|A) = P(B') ?

    P (B | A) = P (B ) c. n. d.

    18. Czy dwa zdarzenia losowe, ktre s rozczne s take niezalene? Odpowied uzasadnij. (4 pkt)

    Nie.

    (brak uzasadnienia)

  • 19. Podaj definicj wzajemnej niezalenoci dla N>2 zdarze losowych. (4 pkt)

    Zdarzenia A1,A2, ..., AN s wzajemnie niezalene wtedy i tylko wtedy, kiedy dla dowolnego zbioru liczb cakowitych n1,n2, , nm, takich, e 1n1

  • 22. Podaj definicj gstoci prawdopodobiestwa zmiennej losowej cigej i uzasadnij nazw tej funkcji. (4 pkt )

    Gstoci prawdopodobiestwa nazywamy funkcj:

    pX (x) = dFX(x) / dx ;

    (gsto prawdopodobiestwa to pochodna dystrybuanty po zmiennej losowej)

    Nazwa gsto prawdopodobiestwa odnosi si do faktu, e jest to funkcja opisujca rozkad prawdopodobiestwa (rozkad zmiennej losowej).

    23. Podaj waciwoci gstoci prawdopodobiestwa zmiennej losowej cigej. (3 pkt)

    Spenia ona warunek normalizacyjny:

    a take:pX(x) 0 , pX(x) = F'(x), gdzie F jest dystybuant (musi ona by funkcj rniczkowaln)

    24. Jakie znasz rodzaje zmiennych losowych i czym si one rni? (4 pkt)

    Zmienne losowe mona podzieli na:- cige (zmienna losowa jest typu cigego, jeeli jej dystrybuanta jest funkcj absolutnie cig tzn. ma pochodn prawie wszdzie [za wyjtkiem przeliczalnej liczby punktw])- dyskretne (ziarniste) s to zmienne losowe, ktrych dystrybuanta jest wyraona krzyw schodkow;- mieszane - dystrybuanta zmiennej losowej mieszanej ma posta: F ( x) = 1 F 1 ( x) + 2 F 2 ( x) 1 + 2 = 1gdzie 1 0F1 ( x) - jest funkcj schodkow F2 ( x) - jest funkcj absolutnie cig

  • 25. Jak mona jednolicie opisa za pomoc gstoci prawdopodobiestwa zmienne losowe cige, dyskretne i mieszane. (5 pkt)

    pochodna uskoku jednostkowego:

    x

    pochodna dystrybuanty schodkowej:

    26. Jak znajc gsto prawdopodobiestwa zmiennej losowej mona obliczy jej dystrybuant? (3 pkt)

    Dla zmiennej losowej cigej, przy znanej gstoci prawdopodobiestwa, dystrybuanta moe by obliczona ze wzoru:

  • 27. Jak mona obliczy prawdopodobiestwo przyjcia przez zmienn losow wartoci z przedziau < a,b). Podaj interpretacj geometryczn. (3 pkt)

    Prawdopodobiestwo to moemy obliczy ze wzoru:

    f(x) ( ) ( )= 0 rozkad mniej spaszczony od rozkadu Gaussa

  • 16. Podaj definicj i ilustracj geometryczn kwantyla rzdu p zmiennej losowej cigej. (3 pkt)

    Kwantyl rzdu p (0< p

  • 20. Podaj definicje i wzory dla obliczenia korelacji i kowariancji dwch zmiennych losowych o znanej gstoci prawdopodobiestwa cznego (3 pkt)

    Korelacja zmiennych losowych X1 i X2 to moment zwyky rzdu 2:

    Kowariancja zmiennych losowych X1 i X2 to moment centralny rzdu 2:

    21. Podaj definicje ortogonalnoci i nieskorelowania dwch zmiennych losowych (2 pkt)

    Jeeli , to mwimy, e zmienne losowe X1 i X2 s ortogonalne.

    Jeeli , to mwimy, e zmienne losowe X1 i X2 s nieskorelowane.

    22. Wyprowad zwizek midzy kowariancj i korelacj dwch ZL (4 pkt)

  • 23. Udowodnij, e jeeli zmienne losowe s niezalene, to s te nieskorelowane. Czy nieskorelowanie zmiennych losowych wiadczy o ich niezalenoci? (4 pkt)

    Jeeli zmienne losow X1 i X2 s niezalene statystycznie, to s te nieskorelowane .Dowd:

    Twierdzenie odwrotne w oglnym przypadku nie jest prawdziwe (czyli nieskorelowanie zmiennych losowych w oglnym przypadku nie wiadczy o ich niezalenoci).

    24. Podaj definicj i rozpisz na elementy macierz korelacji trjwymiarowego wektora losowego. (5 pkt)

    Macierz korelacji to macierz, ktrej elementami s wszystkie momenty zwyke drugiego rzdu

    wektora losowego

    Dla trjwymiarowego wektora losowego macierz koerlacji wyglda nastpujco:

  • 25. Podaj definicj i rozpisz na elementy macierz kowariancji trjwymiarowego wektora losowego. (5 pkt)

    Macierz kowariancji to macierz, ktrej elementami s wszystkie momenty centralne drugiego

    rzdu wektora losowego

    26. Podaj definicj i waciwoci wspczynnika korelacji (unormowanego wspczynnika kowariancji) [3 pkt]

    Jest to wspczynnik, ktry okrela, w jakim stopniu zmienne s wspzalene (miara korelacji zmiennych).

    Wikszo wzorw, ktre okrelaj wspczynnik korelacji, jest normalizowana w taki sposb, aby warto wspczynnika przybieraa wartoci od -1 (zupena korelacja ujemna), przez 0 (brak korelacji) do +1 (zupena korelacja dodatnia).

    Wasnoci wspczynnika korelacji:

  • 27. Podaj definicj funkcji charakterystycznej zmiennej losowej i wzory dla jej obliczenia dla ZL dyskretnej i cigej. (4 pkt)

    Funkcj charakterystyczn zmiennej losowej X nazywamy funkcj zespolon zdefiniowan wzorem:

    gdzie:

    a) dla zmiennej losowej cigej:

    b) dla zmiennej losowej dyskretnej:

    28. Podaj waciwoci funkcji charakterystycznej (4 pkt)

    1.

    2.

    3.

    4.jeeli Y = aX + b , to:

    5.funkcja charakterystyczna sumy niezalenych zmiennych losowych

    jest rwna iloczynowi funkcji charakterystycznych tych zmiennych losowych:

    6.funkcja charakterystyczna sumy niezalenych zmiennych losowych jest rwna iloczynowi funkcji charakterystycznych tych zmiennych losowych jeeli w tym przypadku zmienne losowe maj jednakowe rozkady, to:

  • 29. Udowodnij wybran waciwo funkcji charakterystycznej. (4 pkt)

    Dowd dla wasnoci :

    30. Jak majc funkcj charakterystyczn mo na obliczy rozkad prawdopodobiestwa ZL? (4 pkt)

    a) dla zmiennej losowej dyskretnej (przyjmujcej wartoci, ktre s liczbami naturalnymi):

    k = 1, 2, .

    b) dla zmiennej losowej cigej:

    31. Podaj i udowodnij wzr na obliczenie momentu rzdu k zmiennej losowej za pomoc funkcji charakterystycznej. (5 pkt)

    Jeeli istniej momenty zwyke rzdu k zmiennej losowej, to mog by one obliczone za pomoc pochodnych jej funkcji charakterystycznej:

  • 32. Podaj definicj funkcji charakterystycznej dla dwuwymiarowego wektora losowego. (3 pkt)

    Funkcj charakterystyczn wektora losowego postaci:

    definiujemy wzorem:

    33. Podaj nierwno Markowa. (3 pkt)

    Przyjmujemy, e X to zmienna losowa przyjmujca wartoci nieujemne, o skoczonej wartoci redniej:

    Wtedy:

    34. Udowodnij nierwno Markowa. (4 pkt)

  • 35. Podaj nierwno Czebyszewa. (3 pkt)

    Dla zmiennej losowej X o skoczonej wartoci redniej

    i skoczonej wariancji

    wystpuje nierwno:

    36. Udowodnij nierwno Czebyszewa. (4 pkt)

    37. Podaj CTG i objanij jego znaczenie. (4 pkt )

    CTG to centralne twierdzenie graniczne (twierdzenie Lindeberga - Levyego ).

    Dany jest cig zmiennych losowych X1, X2, ... niezalenych o jednakowych rozkadach i skoczonych wartociach rednich m i wariancjach Niech

    Warto rednia i wariancja Zn s rwne odpowiednio:

    i Unormowan zmienn losow Zn oznaczamy:

    Przy powyszych zaoeniach cig dystrybuant

    jest zbieny do dystrybuanty unormowanego rozkadu normalnego , to znaczy:

  • 38. Czym zajmuje si statystyka? (2 pkt)

    Statystyka to nauka zajmujca si metodami pozyskiwania i prezentacji pewnych danych, a take ich analiza, w celu opisania pewne zjawisk. Stosuje si j wszdzie tam, gdzie chodzi o poznanie prawidowoci w zakresie zjawisk masowych.Wykorzystuje si j przy:- opisywaniu waciwoci jednostek statystycznych ,- wyraaniu za pomoc liczb cech mierzalnych,- wyraeniu sownym cech niemierzalnych,- obserwacjach statystycznych (przyporzdkowaniu wartoci cechom statystycznym),- zbieraniu materiau statystycznego,- badaniu kompletnych (badanie populacji generalnej),- badaniach czciowych (s to badania, w ktrych bierze si pod uwag jeden pozdbir danych zawierajcych si w populacji generalnej) prba statystyczna

    39. Jakie waciwoci musi mie prba reprezentatywna? (2 pkt)

    Prba reprezentatywna:- kady element populacji generalnej powinien mie zapewnion jednakow szans zakwalifikowania go do prby; - liczba elementw prby musi by dostatecznie liczna .

    Wasnoci prby:czstoci wystpowania w prbie okrelonych cech nie powinny silnie rni si od czstoci ich wystpowania w populacji generalnej - std: elementy prby losujemy z populacji generalnej (prba losowa)

    40. Co to jest prba losowa prosta? (2 pkt)

    Prb losow n-elementow nazywamy cig zmiennych losowych X1, . . . , Xn o tym samym rozkadzie. Jeli, dodatkowo, zmienne X1, . . . , Xn s niezalene, to prb tak nazywamy prb losow prost.

  • 41. Co to jest szereg statystyczny uporzdkowany i szereg rozdzielczy? (2 pkt)

    Szereg statystyczny uporzdkowany to uporzdkowany w kolejnoci rosncej zbir obserwacji statystycznych cechy mierzalnej.

    Szereg rozdzielczy to przedzia wartoci, w ktrym zawieraj si wszystkie elementy szeregu uporzdkowanego dzielimy na przedziay klasowe (klasy szeregu rozdzielczego), najczciej o jednakowej szerokoci; aby wyznaczy szereg rozdzielczy wyznaczamy granice przedziaw klasowych, a pniej obliczamy rodki przedziaw klasowych (suma wartoci granic danego przedziau klasowego podzielona przez 2). S to tzw. reprezentanci klas lub warianty klasowe.

    42. Jakie znasz rodzaje histogramw i jak s one obliczane? (4 pkt)

    Histogram jest wykresem supkowym, w ktrym szerokoci poszczeglnych supkw odpowiadaj dugoci przedziaw klasowych szeregu rozdzielczego, a wysokoci liczebnoci tych przedziaw. Wyrniamy:-histogram liczebnoci, gdy wysokoci supkw odpowiadaj liczebnoci przedziaw klasowych,-histogram czstoci, gdy wysokoci supkw odpowiadaj czstoci przedziaw klasowych,-histogram czstoci wzgldnych otrzymujemy z histogramu czstoci bezwzgldnych, dzielc go przez liczno szeregu uporzdkowanego,-histogram unormowany otrzymujemy z histogramu czstoci wzgldnych, dzielc kady jego element przez szeroko przedziau klasowego .

    43. Wymie reguy doboru liczby przedziaw klasowych. (3 pkt)

    Zasady doboru przedziaw klasowych

    R liczebno szeregu uporzdkowanego R := 10000

    1.

    2.

    3.+ liczno adnego z przedziaw klasowych

    nie powinna by mniejsza od 5

  • 4.

    44. Na czym polega estymacja parametrw? (3 pkt)

    Estymacja to obliczanie wartoci nieznanych lub wielkoci losowych na podstawie znajomoci wynikw obserwacji, bdcych realizacjami zmiennych losowych,

    Rozrniamy dwie podstawowe klasy problemw zwizanych z estymacj:

    a) estymowana wielko jest ustalona lecz nieznana; (np. majc zbir realizacji zmiennej losowej gaussowskiej o nieznanej wartoci redniej naley obliczy estymat tej wartoci redniej) ; estymacja parametrw (np. wartoci redniej, wariancji, wspczynnikw korelacji (kowariancji) );

    b) estymowana wielko jest zmienn losow; ( np. staramy si odtworzy sygna wejciowy (z natury losowy) do pewnego ukadu dysponujc zaszumionymi prbkami sygnau wyjciowego z tego ukadu); estymacja zmiennych losowych (problemy zwizane z filtracj, predykcj).

    45. Podaj zasad estymacji parametrw metod najwikszej wiarygodnoci. (3 pkt)

    Zakadamy, e dysponujemy zbiorem wynikw pomiarw reprezentowanym przez wektor losowy X (wektor obserwacji). Wektor losowy X moe by utworzony przez zbir obserwacji skalarnych.Pojedyncze obserwacje mog by zalene lub niezalene statystycznie. Zakadamy, e znany jest typ rozkadu prawdopodobiestwa wektora losowego (np. rozkad Gaussa, rozkad rwnomierny itp. ), lecz nie jest znana warto ustalonego parametru .Gsto prawdopodobiestwa wektora obserwacji oznaczymy:

    Estymat najwikszej wiarygodnoci parametru , przy danym wektorze obserwacji nazywamy tak warto , dla ktrej przyjmuje warto maksymaln i oznaczamy j

    Funkcj nazywamy nazywamy funkcji wiarygodnoci. Poniewa wektor obserwacji przyjmuje wartoci losowe, zatem moemy zapisa funkcj wiarygodnoci w postaci:

    Estymator najwikszej wiarygodnoci definiujemy jako:

  • 46. Jaka jest rnica midzy estymat a estymatorem? (3 pkt)

    Estymata jest to warto estymatora danej cechy statystycznej dla zadanej populacji obliczanego dla konkretnej prby (np. rednia arytmetyczna).

    Estymator jest statystyk suc do szacowania wartoci parametru rozkadu. Celem zastosowania estymatora jest znalezienie parametru rozkadu cechy w populacji.

    Estymator = zmienna losowaEstymata = realizacja estymatora

    47. Wymie i opisz waciwoci estymatorw. (5 pkt)

    - nieobcionowystpuje ona, kiedy speniony jest warunek:

    W przeciwnym przypadku estymator jest obciony, a wielko:

    nazywamy obcieniem estymatora.Estymator jest asymptotycznie obciony, jeeli speniony jest warunek:

    - zgodnoestymator jest zgodny, jeli:

    Cig zmiennych losowych N dla rosncych wartoci N jest zbieny w prawdopodobiestwie do prawdziwej wartoci estymowanego parametru.

    - efektywnonieobciony estymator danego parametru jest efektywny w odniesieniu do innego, nieobcionego estymatora tego parametru, jeeli ma mniejsz od niego wariancj

    - jeeli estymator N jest nieobciony i efektywny w stosunku do estymatora N-1 , to estymator N jest zgodny,

    - obciony estymator A danego parametru jest efektywny w odniesieniu do innego, obcionego estymatora tego parametru B, jeeli ma mniejszy od niego bd redniokwadratowy

  • 48. Podaj nierwno Cramera-Rao i napisz na czym polega jej znaczenie. (4 pkt)

    Jeeli N jest nieobcionym estymatorem parametru , to jego wariancja spenia nierwno:

    Estymator, dla ktrego zachodzi ta rwno, jest nazywany najbardziej efektywnym lubestymatorem o najmniejszej wariancji.