Czerwiński W - Rachunek prawdopodobieństwa i statystyka.pdf

(134 KB) Pobierz
687680553 UNPDF
Rachunek prawdopodobie«stwa - Teoria - Przypomnienie
Podstawy
Definicja 1. Schemat klasyczny - wszystkie zdarzenia elementarne s¡ równo prawdopodobne,
licz¡c prawdopodobie«stwo liczymy stosunek liczby zdarze« sprzyjaj¡cych do wszystkich zdarze«.
Niech A,B zdarzenia losowe. Prawdopodobie«stwo warunkowe:P( A | B ) = P ( A \ B )
P( B ) .
A i B s¡ niezale»ne, gdyP( A \ B ) =P( A )P( B ).
Fakt 1 (Wzór na prawdopodobie«stwo całkowite) . Niech A,B 1 ,...,B n zdarzenia losowe, zdarzenia
B i dla i = 1 ,...,n tworz¡ podział , czyli zawsze zachodzi dokładnie jedno z nich. Wówczas:
P( A ) =
X
i =1 P( A | B i )P( B i ) .
Fakt 2 (Wzór Bayesa) . Niech A,B 1 ,...,B n zdarzenia losowe, zdarzenia B i dla i = 1 ,...,n
tworz¡ podział , czyli zawsze zachodzi dokładnie jedno z nich. Wówczas:
P( B k | A ) = P ( A | B k ) P ( B k )
P
i =1 P( A | B i )P( B i )
.
Dowód. Po prostu rozpisujemy, najpierw z definicji prawdopodobie«stwa warunkowego, potem
korzystamy ze wzoru na prawdopodobie«stwo całkowite.
P( B k | A ) = P ( B k \ A )
P( A )
P
i =1 P( A | B i )P( B i )
.
Rozkłady dyskretne
Aby zdefiniowa¢ rozkład zmiennej losowej X o warto±ciach w liczbach naturalnych nale»y i
wystarczy odpowiedzie¢ na pytanie ile wynosiP( X = k ) dla k 2 N.
Przez X Y b¦dziemy cały czas oznacza¢ (i zawsze si¦ tak oznacza), »e X i Y maj¡ dokładnie
ten sam rozkład, czyli tego samego typu i z takimi samymi parametrami.
Wa»ne rozkłady (dyskretne, czyli o sko«czonym zbiorze warto±ci):
Nast¦puj¡cy schemat nazwiemy schematem Bernoulliego. Wykonujemy n niezale»nych prób,
ka»da odnosi sukces w prawdopodobie«stwem p . To si¦ cz¦sto dzieje w »yciu, wi¦c z tym sche-
matem zwi¡zanych jest wiele u»ytecznych rozkładów.
Rozkład dwumianowy (patrzymy jakie jest prawdopodobie«stwo uzyskania dokładnie k
sukcesów w schemacie Bern.), oznaczamy X Bin ( n,p ).
p k (1 p ) n k .
Rozkład geometryczny (patrzymy jaki jest czas oczekiwania na pierwszy sukces), oznaczamy
powiedzmy X G ( p ).
1
= P ( A | B k ) P ( B k )
WówczasP( X = k ) = k
687680553.006.png
WówczasP( X = k ) = p (1 p ) k 1 dla k ­ 1.
Rozkład Poissona (jest to graniczny przypadek rozkładu dwumianowego, o czym mówi
twierdzenie Poissona - pó¹niej), oznaczamy X Poiss ( ).
WówczasP( X = k ) = k
k ! e .
Twierdzenie 1 (Twierdzenie Poissona) . Niech X n Bin ( n,p n ) , Y Poiss ( ) oraz lim n !1 np n =
. Wówczas
8 k 2 N lim
n !1 P( X n = k ) =P( Y = k ) .
Dowód. Niech n = np n . Wówczas n ! . Wówczas dla dowolnego k 2 Nzachodzi
n
k
!
k !( n k )! p n (1 p n ) n
n !
n !1 P( X n = k ) = lim
p n (1 p n ) n k = lim
n !1
n !1
(1 p n ) k
k
n
1
k !
1
1 p n
1 n
n
=
n !1 n ( n 1) ... ( n k + 1) p n
k
n
1
k !
n !1 n k n
n 1
n
... n k + 1
n
1
1 p n
1 n
n
=
lim
p n
n
k
n
1
k !
n !1 ( n ) k n
n 1
n
... n k
n
1
1 p n
1 n
n
=
lim
n
1
=
k ! k e =P( Y = k ) .
Momenty
Definicja 2. Niech X zmienna losowa o warto±ciach w liczbach naturalnych. Wówczas defini-
ujemy:
warto±¢ oczekiwana to E X =
P
k =1
p
V ar X
k-ty moment to E X k
Warto±¢ oczekiwana to ±rednia, odchylenie standardowe to ±rednie odchylenie od tej ±red-
niej. Wariancja to kwadrat tego odchylenia.
Własno±ci:
E( X + Y ) =E X +E Y
V ar tX =E( tX ) 2 (E tX ) 2 = t 2
E X 2 t 2 (E X ) 2 = t 2 V arX
Dla X,Y niezale»nych
E( XY ) =E X · E Y
V ar ( X + Y ) = V arX + V arY
2
lim
lim
k P( X = k )
wariancja to V arX =E(( X E X ) 2 )
odchylenie standardowe to ( X ) =
687680553.007.png 687680553.008.png 687680553.009.png 687680553.001.png 687680553.002.png 687680553.003.png 687680553.004.png
 
Inne wyra»enieE(dla zmiennych o warto±ciach wN)
E X =
X
k =1 P( X ­ k )
Mo»na łatwo pokaza¢ jego równowa»no±¢ definicji licz¡c ile razy w ka»dej z sum pojawił si¦
składnikP( X = k ) dla okre±lonego k .
Łatwiejszy wzór na wariancj¦
E(( X E X ) 2 ) =E( X 2 2 X E X + (E X ) 2 ) =E( X 2 ) (E X ) 2
Funkcja tworz¡ca prawdopodobie«stwa to dobre narz¦dzie, ułatwia zrobienie wielu zada«.
Definicja 3. Funkcj¡ tworz¡c¡ prawdopodobie«stwa zmiennej losowej X nazwiemy funkcj¦ f :
R ! R okre±lon¡ nast¦puj¡co:
f X ( t ) =E t X .
Rozwijaj¡c definicj¦ dostajemy
f X ( t ) =E t X =
X
k =0 P( X = k ) t k .
Funkcja tworz¡ca ma wiele dobrych własno±ci, najwa»niejsze to
znaj¡c funkcj¦ tworz¡c¡ zmiennej losowej X mo»emy odtworzy¢ jej rozkład, stosuje si¦ to
cz¦sto mówi¡c, »e skoro f X = f Y , to X Y
z funkcji tworz¡cej f X łatwo odzyskujemyE X oraz V arX , mianowicieE X = f 0 X (1),
V arX = f 0 X (1) + f 0 X (1) f 0 X (1) 2
je±li zmienne losowe X i Y s¡ niezale»ne, to f X + Y = f X · f Y , z ten sposób mo»na łatwo
uzyskiwa¢ własno±ci sumy zmiennych losowych
Uzasadnienie:
Z definicji mamy
X
f X ( t ) =
t k
P( X = k ) .
k =0
Po jednokrotnym zró»niczkowaniu stronami otrzymujemy (nale»ałoby formalnie uzasadni¢ dlaczego
mo»emy ró»niczkowa¢ szereg wyraz po wyrazie, ale to na razie odpu±¢my)
f 0 X ( t ) =
X
kt k 1
P( X = k ) =
X
kt k 1
P( X = k )
k =0
k =1
Analogicznie po n krotnym zró»niczkowaniu mamy
X ( t ) =
X
k n t k n
P( X = k ) =
X
k n t k n
P( X = k ) ,
k =0
k = n
gdzie przez k n oznaczamy k ( k 1) ... ( k n + 1).
3
f ( n )
Aby odtworzy¢ rozkład X z f X wystarczy zauwa»y¢, »e
X (0) =
X
k n 0 k n
P( X = k ) = n n · P( X = n ) = n ! · P( X = n ) ,
k = n
gdy» wszystkie wyrazy poza k = n wynosz¡ 0, czyli mamy wzórP( X = n ) = f ( n )
X (0)
n ! .
Mamy równie»
X
f 0 X (1) =
k 1 k 1
P( X = k ) =E X.
k =1
oraz
X
f 0 X (1) =
k ( k 1)1 k 2
P( X = k ) ,
k =2
czyli
X
k =1 P( X = k )( k ( k 1) + k ) =
X
k =2 P( X = k ) k 2 =E X 2 .
f 0 X (1) + f 0 X (1) =
Zatem V ar X = f 0 X (1) + f 0 X (1) f 0 X (1) 2 .
Własno±¢ zmiennych niezale»nych wynika z tego, »e f X + Y ( t ) =E t X + Y
=E t X t Y
=E t X ·
E t Y = f X ( t ) · f Y ( t ) , gdzie trzecia równo±¢ wynika z niezale»no±ci.
Jest jeszcze jedna przydatna własno±¢ funkcji tworz¡cej prawdopodobie«stwa, o której mówi
Twierdzenie 2. Je±li X,X 1 ,X 2 ,... niezale»ne zmienne losowe o jednakowym rozkładzie (X
wprowadzam tylko po to, »eby miał ten sam rozkład, co X i i napisy wygl¡dały ładnie), N
zmienna losowa niezale»na od wszystkich pozostałych oraz S =
P
i =1 X i , to f S = f N f X .
Rozkłady ci¡głe
Rozkłady ci¡głe na tym przedmiocie traktowane s¡ bardzo, bardzo skrótowo. Rozkłady ci¡głe
okre±lamy podaj¡c nie prawdopodobie«stwo przyj¦cia konkretnej warto±ci (gdy» prawdopodobie«stwo
przyj¦cia konkretnej warto±ci wynosi zawsze 0 w przypadku tych rozkładów), lecz g¦sto±¢
rozkładu w danym miejscu. Przyjmujemy potem, »eP( a ¬ X ¬ b ) =
R
g X ( x ) dx. Najwa»niejsze
a
rozkłady ci¡głe to:
Rozkład jednostajny (losujemy liczb¦ z odcinka [ a,b ] z tak¡ sam¡ g¦sto±ci¡ na całym od-
cinku), oznaczamy X U ([ a,b ]).
Wówczas g X ( x ) = 1
Rozkład wykładniczy (mo»emy o nim my±le¢ jako o uci¡gleniu rozkładu geometrycznego,
czyli o czasie czekania na pewne wydarzenie, które ma prawd. zaj±cia zawsze takie samo), oz-
naczamy X E xp ( ).
Wówczas g X ( x ) = e x 1 { x ­ 0 } .
Rozkład normalny (inaczej gaussowski, najwa»niejszy rozkład wszechczasów :)). Wyst¦puje
cz¦sto w przyrodzie i nie tylko, a to dlatego, »e mo»na go traktowa¢ jako rozkład, który jest
4
f ( n )
b a 1 [ a,b ] , gdzie przez1 S oznaczamy funkcj¦, która na zbiorze S przyjmuje
warto±¢ 1, a na reszcie 0.
 
uci¡gleniem sumy wielu podobnych niezale»nych zmiennych losowych. Sformalizowaniem tego
faktu jest Centralne Twierdzenie Graniczne. Oznaczamy go X N ( a, 2 ), gdzie a to warto±¢
oczekiwana X , a 2 to wariancja X .
Wówczas g X ( x ) = 1
p 2 e
Warto±¢ oczekiwan¡ rozkładu ci¡głego definiuje si¦ nast¦puj¡co
Z
E X =
g X ( x ) x dx.
−1
Nierówno±ci probabilistyczne
Nierówno±¢ Markowa
Niech X nieujemna zmienna losowa, t > 0, wówczas
P( X ­ t ) ¬ E X
t .
Dowód: GdybyP( X ­ t ) > E t , to
E X ­ E X 1 { X ­ t } ­ E t 1 { X ­ t } = t E1 { X ­ t } = t P( X ­ t ) > t E X
t
=E X,
sprzeczno±¢.
Nierówno±¢ Czebyszewa
t 2 .
Dowód:P( | X E X | ­ t ) =P( | X E X | 2 ­ t 2 ) ¬ E | X E X | 2
P( | X E X t ) ¬ V ar X
t 2 = V ar X
t 2 , gdzie nierówno±¢
wynika z nierówno±ci Markowa dla zmiennej Y = | X E X | 2 .
Nierówno±¢ Chernoa
Zdefiniujmy funkcj¦ tworz¡c¡ momenty M X ( s ) =E e sX . Wówczas
P( X ­ t ) ¬ min
s> 0
M X ( s )
e st
oraz
M X ( s )
e st
P( X ¬ t ) ¬ min
s< 0
.
e st ,gdzie pierwsza równo±¢ wynika
z tego, »e funkcja x ! e sx jest rosn¡ca, a jedyna nierówno±¢ jest zastosowaniem nierówno±ci
Markowa. Taka nierówno±¢ zachodzi dla dowolnego s > 0, wi¦c jak praw¡ stron¦ zminimalizu-
jemy po s > 0, to b¦dzie te» prawda. Podobnie druga nierówno±¢.
e st = M X ( s )
Poszczególne przypadki zastosowania nierówno±ci Chernoa sprowadzaj¡ si¦ zazwyczaj do
policzenia funkcji M X ( s ) dla pewnej konkretnej zmiennej X i wstawienia. Na przykład, gdy
X jest zmienn¡ Bernoulliego (czyli przyjmuje 1 z pr. p , 0 wpp.), to M X ( s ) = (1 p ) + pe s ,
obliczamy minimum funkcji po prawej stronie i zapewne mo»na otrzyma¢ co± interesuj¡cego.
5
( x a ) 2
2 2 .
Cz¦sto stosowany jest tak zwany kanoniczny rozkład normalny, N (0 , 1).
Dowód:
Niech s > 0, wówczasP( X ­ t ) =P( e sX ­ e st ) ¬ E e sX
687680553.005.png
Zgłoś jeśli naruszono regulamin