Podstawy_Metod_Probabilistycznych_I_JS.doc

(238 KB) Pobierz
UNIWERSYTET KAZIMIERZA WIELKIEGO

Semestr Zimowy 2012/13                                                                                                                      

Podstawy Metod Probabilistycznych i Statystyki

Janusz Szczepański  ( http://www.ippt.gov.pl/~jszczepa )

Notatki do wykładu na UKW

 

podczas początkowych wykładów wprowadzimy podstawowe pojęcia Rachunku Prawdopodobieństwa (cz. I)

W trakcie wykładów prezentowane pojęcia i twierdzenia są ilustrowane przykładami.

Na pierwszym wykładzie były omówione definicje prawdopodobieństwa: klasyczna, statystyczna, geometryczna i aksjomatyczna. W kontekście definicji klasycznej konieczna jest pewna znajomość zagadnień kombinatoryki (permutacje, kombinacje, wariacje bez powtórzeń, wariacje z pwtórzeniami.).

 

Kwintesencją tych definicji (ogólnym matematycznym ujęciem) jest aksjomatyczna teoria prawdopodobieństwa.

 

 

Przestrzeń probabilistyczna (definicja aksjomatyczna – najogólniejsza)

 

Niech oznacza zbiór wzajemnie wykluczających się wyników pewnego doświadczenia. Zbiór ten będziemy nazywać przestrzenią zdarzeń elementarnych tego doświadczenie. Elementy tego zbioru będziemy nazywać zdarzeniami elementarnymi.

 

Natomiast, trójkę gdzie:

1) zbiór  (przestrzeń zdarzeń elementarnych),

2) M -ciało (sigma-ciało) podzbiorów (zdefiniowane poniżej),

3) funkcja prawdopodobieństwa P (również zdefiniowaną poniżej),

nazywamy przestrzenią probabilistyczną.

 

Definicja -ciała

Niepustą rodzinę M podzbiorów przestrzeni nazywamy -ciałem jeżeli spełnione są następujące warunki:

a)      Jeśli to dopełnienie A czyli również należy do M.

b)     Jeśli każdy zbiór tego ciągu należy do M , to do M należy również ich suma, czyli, że .

 

Określenie/definicja funkcji prawdopodobieństwa P

Funkcję P określoną na elementach - ciała nazywamy prawdopodobieństwem (miarą probabilistyczną) wtedy i tylko wtedy gdy spełnione są następujące aksjomaty:

P1. dla każdego zbioru należącego do .

P2. .

P3. Jeżeli ciąg , n = 1,2, ... zdarzeń jest taki, że dla , to

   (własność przeliczalnej addytywności).

 

Zdarzeniem nazywamy dowolny element - ciała (czyli są to wybrane podzbiory ).

 

Na zdarzeniach obowiązuje klasyczny rachunek zbiorów (suma, iloczyn, dopełnienie zbiorów).

W praktyce, gdy przestrzeń jest zbiorem skończonym to wówczas przyjmuje się, że - ciało M stanowią wszystkie podzbiory zbioru .

 

Mając jakieś doświadczenie możemy konstruować nowe doświadczenia (na przykład powtarzając to doświadczenie w pewien zadany sposób, na przykład niezależny).

W szczególności tak otrzymuje się schemat Bernoulliego, który będzie omówiony później.

 

Prawdopodobieństwo warunkowe

Niech A będzie pewnym zdarzeniem. Załóżmy, że w wyniku doświadczenia wiemy dodatkowo, że zaszło pewne zdarzenie B o m elementach. Jakie jest prawdopodobieństwo zdarzenia A przy tej dodatkowej informacji? Załóżmy, że zdarzenie ma k elementów a wszystkich elementow w jest n.

Naturalnym jest określić takie prawdopodobieństwo następująco:

.

 

Widzimy, że otrzymany stosunek jest równy

.

To wyrażenie przyjmuje się jak definicję prawdopodobieństwa warunkowego, zakładamy, że .

 

Zdarzenia niezależne

Naturalne jest przyjąć, że zdarzenia są niezależne gdy (prawdopodobieństwo A nie zmieniło się chociaż znamy wynik B). Zatem (wykorzystując powyższy wzór na prawdopodobieństwo warunkowe), zdarzenia A i B są niezależne wtedy i tylko wtedy gdy .

Ten warunek określa (jest równoważny) niezależność zdarzeń A i B.

 

 

Wzór na prawdopodobieństwo całkowite

Niech będą zdarzeniami w przestrzeni mającymi dodatnie prawdopodobieństwa. Załóżmy, że dla , i, j = 1,2,…,n (zdarzenia parami wyłączające się) oraz, że (czyli, że zdarzenia te są rozłączne i w sumie stanowią całą przestrzeń , jest to rozbicie ). Wówczas dla dowolnego zdarzenia B zachodzi wzór

.

 

Wzór Bayesa

Niech będą zdarzeniami w przestrzeni mającymi dodatnie prawdopodobieństwa. Załóżmy, że dla , i, j = 1,2,…,n (zdarzenia parami wyłączające się) oraz, że (czyli, że zdarzenia te są rozłączne i w sumie stanowią całą przestrzeń ). Wówczas dla dowolnego zdarzenia B

 

.

 

 

Lemat Borela-Cantelli (znany też jako kryterium „zera lub jedności” Borela)

Niech będzie ciągiem zdarzeń niezależnych w przestrzeni probabilistycznej  i niech A będzie zdarzeniem polegającym na tym, że nastąpi nieskończenie wiele zdarzeń , tzn.

.

Wówczas lub w zależności od tego, czy jest

czy .

 

Uwaga

W dowodzie implikacji P(A)=0 nie jest potrzebny warunek niezależności zdarzeń .

 

Zmienna losowa

Zmienną losową X nazywamy funkcję mierzalną (wyjaśnione poniżej) określoną na przestrzeni zdarzeń elementarnych o wartościach w  przestrzeni . W przestrzeni jako - ciało przyjmujemy - ciało zbiorów borelowskich , czyli najmniejsze (ze względu na relację inkluzji) - ciało zawierające wszystkie zbiory otwarte w .

Dość często spotyka się terminologię, że przestrzenią wartości zmiennej losowej jest zbiór liczb rzeczywistych R;

zaś zmienną losową o przestrzeni wartości  , n>1 nazywa się wektorem losowym lub wielowymiarową zmienną losową.

 

Definicja

Funkcję nazywamy mierzalną gdy przeciwobraz dowolnego zbioru mierzalnego w (czyli elementu - ciało zbiorów borelowskich w  ) jest zbiorem mierzalnym w (czyli jest elementem - ciała ). Czyli dla każdego zbiór (przeciwobraz).

 

Określenie/wprowadzenie zmiennej losowej służy do przeniesienia zdarzeń z przestrzeni probabilistycznej  do mniej abstrakcyjnej (łatwiejszej do analizy) przestrzeni probabilistycznej na . Gdyż tak naprawdę, w wielu praktycznych sytuacjach interesuje nas zajście danych wartości zmiennej losowej a nie co zdarzyło się na .

 

Definicja.

Rozkładem prawdopodobieństwa na nazywamy każdą miarę probabilistyczną na .

 

Następna definicja mówi o tym jak przenieść miarę z na .

Definicja.

Rozkładem prawdopodobieństwa zmiennej losowej X o wartościach w nazywamy rozkład prawdopodobieństwa , określony na zależnością:

, dla każdego .

 

 

Przedstawimy teraz sposób na jednoznaczne określenie (opis) rozkładu zmiennej losowej X.

 

Dystrybuanta

 

Definicja.

Dystrybuantą rozkładu prawdopodobieństwa na (otrzymanego poprzez prawdopodobieństwo P) nazywamy funkcję

określoną zależnością:

 

 

(w podręcznikach przyjmuje się czasami definicję  z nierównością nieostrą (*)

)

 

Własności dystrybuanty

1)     Funkcja jest funkcją niemalejącą, tzn. gdy to wówczas ,

2)     ,  (t= gdy dla każdego i.

3)     Funkcja jest lewostronnie ciągła (albo prawostronnie ciągła gdy przyjmiemy definicję (*) )

 

 

Twierdzenie

Jeśli funkcja spełnia powyższe własności 1), 2), 3) to F jest dystrybuantą pewnego rozkładu prawdopodobieństwa.

 

Definicja.

Jeśli jest rozkładem prawdopodobieństwa na i dla pewnej funkcji mierzalnej całkowalnej w sensie Lebesgue’a zachodzi:

dla każdego

to funkcję f nazywamy gęstością rozkładu .

 

Definicja.

Rozkład prawdopodobieństwa , który ma gęstość nazywamy rozkładem ciągłym.

 

 

 

 

Definicja.

Rozkład na nazywamy dyskretnym gdy istnieje przeliczalny zbiór , dla którego Zatem, żeby jednoznacznie określić ten typ rozkładu należy określić (podać) wartości prawdopodobieństwa przypisane poszczególnym punktom zbioru S.

 

Definicja.

Dystrybuantę F nazywamy osobliwą wtedy i tylko wtedy gdy jej punkty wzrostu stanowią zbiór o mierze Lebesgue’a równej zero. Punkt x nazywamy punktem wzrostu funkcji F, jeżeli dla każdego jest .

 

Twierdzenie (Lebesgue’a).

Każdą dystrybuantę F można przedstawić w sposób jednoznaczny, w postaci

gdzie

- jest dystrybuantą (absolutnie) ciągłą

- jest dystrybuantą dyskretną

- jest dystrybuantą typu osobliwego

oraz

i ...

Zgłoś jeśli naruszono regulamin