Czerwiński W - Rachunek prawdopodobieństwa i statystyka.pdf
(
134 KB
)
Pobierz
687680553 UNPDF
Rachunek prawdopodobie«stwa - Teoria - Przypomnienie
Podstawy
Definicja 1.
Schemat klasyczny - wszystkie zdarzenia elementarne s¡ równo prawdopodobne,
licz¡c prawdopodobie«stwo liczymy stosunek liczby zdarze« sprzyjaj¡cych do wszystkich zdarze«.
Niech
A,B
zdarzenia losowe. Prawdopodobie«stwo warunkowe:P(
A
|
B
) =
P
(
A
\
B
)
P(
B
)
.
A
i
B
s¡ niezale»ne, gdyP(
A
\
B
) =P(
A
)P(
B
).
Fakt 1
(Wzór na prawdopodobie«stwo całkowite)
.
Niech A,B
1
,...,B
n
zdarzenia losowe, zdarzenia
B
i
dla i
= 1
,...,n tworz¡ podział
, czyli zawsze zachodzi dokładnie jedno z nich. Wówczas:
P(
A
) =
X
i
=1
P(
A
|
B
i
)P(
B
i
)
.
Fakt 2
(Wzór Bayesa)
.
Niech A,B
1
,...,B
n
zdarzenia losowe, zdarzenia B
i
dla i
= 1
,...,n
tworz¡ podział
, czyli zawsze zachodzi dokładnie jedno z nich. Wówczas:
P(
B
k
|
A
) =
P
(
A
|
B
k
)
P
(
B
k
)
P
i
=1
P(
A
|
B
i
)P(
B
i
)
.
Dowód.
Po prostu rozpisujemy, najpierw z definicji prawdopodobie«stwa warunkowego, potem
korzystamy ze wzoru na prawdopodobie«stwo całkowite.
P(
B
k
|
A
) =
P
(
B
k
\
A
)
P(
A
)
P
i
=1
P(
A
|
B
i
)P(
B
i
)
.
Rozkłady dyskretne
Aby zdefiniowa¢ rozkład zmiennej losowej
X
o warto±ciach w liczbach naturalnych nale»y i
wystarczy odpowiedzie¢ na pytanie ile wynosiP(
X
=
k
) dla
k
2
N.
Przez
X
Y
b¦dziemy cały czas oznacza¢ (i zawsze si¦ tak oznacza), »e
X
i
Y
maj¡ dokładnie
ten sam rozkład, czyli tego samego typu i z takimi samymi parametrami.
Wa»ne rozkłady (dyskretne, czyli o sko«czonym zbiorze warto±ci):
Nast¦puj¡cy schemat nazwiemy schematem Bernoulliego. Wykonujemy
n
niezale»nych prób,
ka»da odnosi sukces w prawdopodobie«stwem
p
. To si¦ cz¦sto dzieje w »yciu, wi¦c z tym sche-
matem zwi¡zanych jest wiele u»ytecznych rozkładów.
Rozkład dwumianowy (patrzymy jakie jest prawdopodobie«stwo uzyskania dokładnie
k
sukcesów w schemacie Bern.), oznaczamy
X
Bin
(
n,p
).
p
k
(1
−
p
)
n
−
k
.
Rozkład geometryczny (patrzymy jaki jest czas oczekiwania na pierwszy sukces), oznaczamy
powiedzmy
X
G
(
p
).
1
=
P
(
A
|
B
k
)
P
(
B
k
)
WówczasP(
X
=
k
) =
k
WówczasP(
X
=
k
) =
p
(1
−
p
)
k
−
1
dla
k
1.
Rozkład Poissona (jest to graniczny przypadek rozkładu dwumianowego, o czym mówi
twierdzenie Poissona - pó¹niej), oznaczamy
X
Poiss
(
).
WówczasP(
X
=
k
) =
k
k
!
e
−
.
Twierdzenie 1
(Twierdzenie Poissona)
.
Niech X
n
Bin
(
n,p
n
)
, Y
Poiss
(
)
oraz
lim
n
!1
np
n
=
. Wówczas
8
k
2
N
lim
n
!1
P(
X
n
=
k
) =P(
Y
=
k
)
.
Dowód.
Niech
n
=
np
n
. Wówczas
n
!
. Wówczas dla dowolnego
k
2
Nzachodzi
n
k
!
k
!(
n
−
k
)!
p
n
(1
−
p
n
)
n
n
!
n
!1
P(
X
n
=
k
) = lim
p
n
(1
−
p
n
)
n
−
k
= lim
n
!1
n
!1
(1
−
p
n
)
k
k
n
1
k
!
1
1
−
p
n
1
−
n
n
=
n
!1
n
(
n
−
1)
...
(
n
−
k
+ 1)
p
n
k
n
1
k
!
n
!1
n
k
n
n
−
1
n
...
n
−
k
+ 1
n
1
1
−
p
n
1
−
n
n
=
lim
p
n
n
k
n
1
k
!
n
!1
(
n
)
k
n
n
−
1
n
...
n
−
k
n
1
1
−
p
n
1
−
n
n
=
lim
n
1
=
k
!
k
e
−
=P(
Y
=
k
)
.
Momenty
Definicja 2.
Niech X zmienna losowa o warto±ciach w liczbach naturalnych. Wówczas defini-
ujemy:
warto±¢ oczekiwana to
E
X
=
P
k
=1
p
V ar X
k-ty moment to
E
X
k
Warto±¢ oczekiwana to ±rednia, odchylenie standardowe to ±rednie odchylenie od tej ±red-
niej. Wariancja to kwadrat tego odchylenia.
Własno±ci:
E(
X
+
Y
) =E
X
+E
Y
V ar tX
=E(
tX
)
2
−
(E
tX
)
2
=
t
2
E
X
2
−
t
2
(E
X
)
2
=
t
2
V arX
Dla
X,Y
niezale»nych
E(
XY
) =E
X
·
E
Y
V ar
(
X
+
Y
) =
V arX
+
V arY
2
lim
lim
k
P(
X
=
k
)
wariancja to V arX
=E((
X
−
E
X
)
2
)
odchylenie standardowe to
(
X
) =
Inne wyra»enieE(dla zmiennych o warto±ciach wN)
E
X
=
X
k
=1
P(
X
k
)
Mo»na łatwo pokaza¢ jego równowa»no±¢ definicji licz¡c ile razy w ka»dej z sum pojawił si¦
składnikP(
X
=
k
) dla okre±lonego
k
.
Łatwiejszy wzór na wariancj¦
E((
X
−
E
X
)
2
) =E(
X
2
−
2
X
E
X
+ (E
X
)
2
) =E(
X
2
)
−
(E
X
)
2
Funkcja tworz¡ca prawdopodobie«stwa
to dobre narz¦dzie, ułatwia zrobienie wielu zada«.
Definicja 3.
Funkcj¡ tworz¡c¡ prawdopodobie«stwa zmiennej losowej X nazwiemy funkcj¦ f
:
R
!
R
okre±lon¡ nast¦puj¡co:
f
X
(
t
) =E
t
X
.
Rozwijaj¡c definicj¦ dostajemy
f
X
(
t
) =E
t
X
=
X
k
=0
P(
X
=
k
)
t
k
.
Funkcja tworz¡ca ma wiele dobrych własno±ci, najwa»niejsze to
znaj¡c funkcj¦ tworz¡c¡ zmiennej losowej
X
mo»emy odtworzy¢ jej rozkład, stosuje si¦ to
cz¦sto mówi¡c, »e skoro
f
X
=
f
Y
, to
X
Y
z funkcji tworz¡cej
f
X
łatwo odzyskujemyE
X
oraz
V arX
, mianowicieE
X
=
f
0
X
(1),
V arX
=
f
0
X
(1) +
f
0
X
(1)
−
f
0
X
(1)
2
je±li zmienne losowe
X
i
Y
s¡ niezale»ne, to
f
X
+
Y
=
f
X
·
f
Y
, z ten sposób mo»na łatwo
uzyskiwa¢ własno±ci sumy zmiennych losowych
Uzasadnienie:
Z definicji mamy
X
f
X
(
t
) =
t
k
P(
X
=
k
)
.
k
=0
Po jednokrotnym zró»niczkowaniu stronami otrzymujemy (nale»ałoby formalnie uzasadni¢ dlaczego
mo»emy ró»niczkowa¢ szereg wyraz po wyrazie, ale to na razie odpu±¢my)
f
0
X
(
t
) =
X
kt
k
−
1
P(
X
=
k
) =
X
kt
k
−
1
P(
X
=
k
)
k
=0
k
=1
Analogicznie po
n
krotnym zró»niczkowaniu mamy
X
(
t
) =
X
k
n
t
k
−
n
P(
X
=
k
) =
X
k
n
t
k
−
n
P(
X
=
k
)
,
k
=0
k
=
n
gdzie przez
k
n
oznaczamy
k
(
k
−
1)
...
(
k
−
n
+ 1).
3
f
(
n
)
Aby odtworzy¢ rozkład
X
z
f
X
wystarczy zauwa»y¢, »e
X
(0) =
X
k
n
0
k
−
n
P(
X
=
k
) =
n
n
·
P(
X
=
n
) =
n
!
·
P(
X
=
n
)
,
k
=
n
gdy» wszystkie wyrazy poza
k
=
n
wynosz¡ 0, czyli mamy wzórP(
X
=
n
) =
f
(
n
)
X
(0)
n
!
.
Mamy równie»
X
f
0
X
(1) =
k
1
k
−
1
P(
X
=
k
) =E
X.
k
=1
oraz
X
f
0
X
(1) =
k
(
k
−
1)1
k
−
2
P(
X
=
k
)
,
k
=2
czyli
X
k
=1
P(
X
=
k
)(
k
(
k
−
1) +
k
) =
X
k
=2
P(
X
=
k
)
k
2
=E
X
2
.
f
0
X
(1) +
f
0
X
(1) =
Zatem
V ar X
=
f
0
X
(1) +
f
0
X
(1)
−
f
0
X
(1)
2
.
Własno±¢ zmiennych niezale»nych wynika z tego, »e
f
X
+
Y
(
t
) =E
t
X
+
Y
=E
t
X
t
Y
=E
t
X
·
E
t
Y
=
f
X
(
t
)
·
f
Y
(
t
)
,
gdzie trzecia równo±¢ wynika z niezale»no±ci.
Jest jeszcze jedna przydatna własno±¢ funkcji tworz¡cej prawdopodobie«stwa, o której mówi
Twierdzenie 2.
Je±li X,X
1
,X
2
,... niezale»ne zmienne losowe o jednakowym rozkładzie (X
wprowadzam tylko po to, »eby miał ten sam rozkład, co X
i
i napisy wygl¡dały ładnie), N
zmienna losowa niezale»na od wszystkich pozostałych oraz S
=
P
i
=1
X
i
, to f
S
=
f
N
f
X
.
Rozkłady ci¡głe
Rozkłady ci¡głe na tym przedmiocie traktowane s¡ bardzo, bardzo skrótowo. Rozkłady ci¡głe
okre±lamy podaj¡c nie prawdopodobie«stwo przyj¦cia konkretnej warto±ci (gdy» prawdopodobie«stwo
przyj¦cia konkretnej warto±ci wynosi zawsze 0 w przypadku tych rozkładów), lecz g¦sto±¢
rozkładu w danym miejscu. Przyjmujemy potem, »eP(
a
¬
X
¬
b
) =
R
g
X
(
x
)
dx.
Najwa»niejsze
a
rozkłady ci¡głe to:
Rozkład jednostajny (losujemy liczb¦ z odcinka [
a,b
] z tak¡ sam¡ g¦sto±ci¡ na całym od-
cinku), oznaczamy
X
U
([
a,b
]).
Wówczas
g
X
(
x
) =
1
Rozkład wykładniczy (mo»emy o nim my±le¢ jako o uci¡gleniu rozkładu geometrycznego,
czyli o czasie czekania na pewne wydarzenie, które ma prawd. zaj±cia zawsze takie samo), oz-
naczamy
X
E
xp
(
).
Wówczas
g
X
(
x
) =
e
−
x
1
{
x
0
}
.
Rozkład normalny (inaczej gaussowski, najwa»niejszy rozkład wszechczasów :)). Wyst¦puje
cz¦sto w przyrodzie i nie tylko, a to dlatego, »e mo»na go traktowa¢ jako rozkład, który jest
4
f
(
n
)
b
−
a
1
[
a,b
]
, gdzie przez1
S
oznaczamy funkcj¦, która na zbiorze
S
przyjmuje
warto±¢ 1, a na reszcie 0.
uci¡gleniem sumy wielu podobnych niezale»nych zmiennych losowych. Sformalizowaniem tego
faktu jest Centralne Twierdzenie Graniczne. Oznaczamy go
X
N
(
a,
2
), gdzie
a
to warto±¢
oczekiwana
X
, a
2
to wariancja
X
.
Wówczas
g
X
(
x
) =
1
p
2
e
Warto±¢ oczekiwan¡ rozkładu ci¡głego definiuje si¦ nast¦puj¡co
Z
E
X
=
g
X
(
x
)
x dx.
−1
Nierówno±ci probabilistyczne
Nierówno±¢ Markowa
Niech
X
nieujemna zmienna losowa,
t >
0, wówczas
P(
X
t
)
¬
E
X
t
.
Dowód: GdybyP(
X
t
)
>
E
t
, to
E
X
E
X
1
{
X
t
}
E
t
1
{
X
t
}
=
t
E1
{
X
t
}
=
t
P(
X
t
)
> t
E
X
t
=E
X,
sprzeczno±¢.
Nierówno±¢ Czebyszewa
t
2
.
Dowód:P(
|
X
−
E
X
|
t
) =P(
|
X
−
E
X
|
2
t
2
)
¬
E
|
X
−
E
X
|
2
P(
|
X
−
E
X
|
t
)
¬
V ar X
t
2
=
V ar X
t
2
, gdzie nierówno±¢
wynika z nierówno±ci Markowa dla zmiennej
Y
=
|
X
−
E
X
|
2
.
Nierówno±¢ Chernoa
Zdefiniujmy funkcj¦ tworz¡c¡ momenty
M
X
(
s
) =E
e
sX
. Wówczas
P(
X
t
)
¬
min
s>
0
M
X
(
s
)
e
st
oraz
M
X
(
s
)
e
st
P(
X
¬
t
)
¬
min
s<
0
.
e
st
,gdzie pierwsza równo±¢ wynika
z tego, »e funkcja
x
!
e
sx
jest rosn¡ca, a jedyna nierówno±¢ jest zastosowaniem nierówno±ci
Markowa. Taka nierówno±¢ zachodzi dla dowolnego
s >
0, wi¦c jak praw¡ stron¦ zminimalizu-
jemy po
s >
0, to b¦dzie te» prawda. Podobnie druga nierówno±¢.
e
st
=
M
X
(
s
)
Poszczególne przypadki zastosowania nierówno±ci Chernoa sprowadzaj¡ si¦ zazwyczaj do
policzenia funkcji
M
X
(
s
) dla pewnej konkretnej zmiennej
X
i wstawienia. Na przykład, gdy
X
jest zmienn¡ Bernoulliego (czyli przyjmuje 1 z pr.
p
, 0 wpp.), to
M
X
(
s
) = (1
−
p
) +
pe
s
,
obliczamy minimum funkcji po prawej stronie i zapewne mo»na otrzyma¢ co± interesuj¡cego.
5
(
x
−
a
)
2
2
2
.
Cz¦sto stosowany jest tak zwany kanoniczny rozkład normalny,
N
(0
,
1).
Dowód:
Niech
s >
0, wówczasP(
X
t
) =P(
e
sX
e
st
)
¬
E
e
sX
Plik z chomika:
Kid_A
Inne pliki z tego folderu:
Miszczyński M - Statystyka.7z
(3321 KB)
Kamys B - Teoria prawdopodobieństwa i statystyka dla fizyki komputerowej.pdf
(758 KB)
Kamys B - Tablice podstawowych rozkładów prawdopodobieństwa (kwantyle).pdf
(262 KB)
Boratyńska A - Wykłady ze statystyki matematycznej.pdf
(351 KB)
Kotłowska M - Rachunek prawdopodobieństwa i statystyka matematyczna.pdf
(432 KB)
Inne foldery tego chomika:
Audiobooki
Dokumenty
E-books
Galeria
MAZDA 6
Zgłoś jeśli
naruszono regulamin