Ocena brak

Prawdopodobieństwo warunkowe

Autor /Encyklopedia Zarządzania Dodano /26.02.2012

Prawdopodobieństwo warunkowe

Rozważmy dwa zdarzenia losowe Ai B, przy czym niech P(B)>0.<br>

Prawdopodobieństwo warunkowe jest to prawdopodobieństwo zajścia zdarzenia A gdy wiadomo, że zaszło zdarzenie B.<br>

Jest ono oznaczane symbolem p(A\B)<br>

i wyraża się wzorem

<center>p(A \ B)= <math>\frac{p\left(A\cap B\right)}{p\left(B\right)}</math></center>

Prawdopodobieństwo warunkowe określa szansę zającia jakiegoś zdarzenia, gdy wiadomo, jakie zdarzenia już zaszły. (Słownik encyklopedyczny, Edward Siwek, Cykada, Katowice 2002)


Prawdopodobieństwo P(A\B) jest naogół różne od prawdopodobieństwa (bezwarunkowego lub apriori) zdarzenia A.<br>

W pewnych przypadkach jednak informacja o zajściu zdarzenia B nie ma wpływu na prawdopodobieństwo zdarzenia A, tj. <br>

<center>P(A\B)= P(A)</center>

Otrzymujemy wówczas:<br>

<center>P(A i B)=<math> P\left(A\right)P\left(B\right)</math></center>

Przykład


Załóżmy, że pomyślne ukończenie gry (wygrana) uzależnione jest od uzyskania 11 punktów w dwóch kolejnych rzutach<br>

(lub dwoma kostkami jednocześnie).

Jakie jest prawdopodobieństwo osiągnięcia takiego wyniku?<br>

W pierwszym rzucie dwa wyniki nie przekreślają szans uzyskania potrzebnej liczby punktów: są to liczby 5 i 6. Prawdopodobieństwo<br>

uzyskania jednej z nich wynosi:

<center><math> \left(\frac{1}{6}\right) + \left(\frac{1}{6}\right)= \left(\frac{1}{3}\right)</math></center>

Liczba punktów, które musimy uzyskać w drugim rzucie, aby spełnione zostało przyjęte założenie, jest już ściśle uwaunkowana wynikiem<br>

uzyskanym w pierwszym rzucie (mamy więc do czynienia z prawdopodobieństwiem warunkowym).<br>

Prawdopodobieństwo warunkowe zdarzenia B przy założeniu, że wystąpiło zdarzenie A, oznaczymy symbolem <math>P\left(B\setminus A\right)</math>.<br>

Tak więc w przypadku uzyskania w pierwszym rzucie 5 punktów, w drugim jedynie wyrzucenie 6 punktów da nam potrzebną sumę punktów.<br>

I odwrotnie, jeśli w pierwszym rzucie uzyskamy 6 punktów, to w drugim jedynie wyrzucenie 5 punktów odpowiada przyjętemu założeniu.<br>

A zatem prawdopodobieństwo uzyskania 11 punktów w dwóch kolejnych rzutach kostką wynosi:


<center><math>\left(\frac{1}{3}\right) \left(\frac{1}{6}\right)= \left(\frac{1}{18}\right)</math></center>

Przykład 2


Dzieci miały zaopatrzyć łódkę taty w wodę mineralną przed jego wyjazdem z kolegą na ryby. W domu byłby dwie skrzynki: jedna z wodą <br>

mineralną, a druga z lemoniadą. Czteroletni Jacek przyniósł 3 butelki, a młodsza o rok agatka dwie. Wyjmując butelkę, już na jeziorze, tata<br>

zobaczył, że woda zmyła z niej nalepkę. Kolega taty zauważył, że wyjęta butelka wygląda tak samo, jak butelka lemoniady.<br>

Z jaki prawdopodobieństwem panowie napiją się wody mineralnej, jeżeli prawd., że Agatka przyniosła wodę, a nie lemoniadę, wynosi <math>\frac{1}{2}</math><br>

natomiast w przypadku Jacka prawdopodobieństwo to wynosi <math>\frac{3}{4}</math>


rozwiązanie

Dzieci chciały przynieść wodę, a nie lemoniadę więc każde wzięło wszystkie swoje butelki z jednej skrzynki. Niech A oznacza, że panowie<br>

trafili na wodę. Przyjmiemy hipotezę H, że wyjęta butelka jest jedną z przyniesionych przez Jacka i zastosujemy wzór:

<center>P(A)=P(H)P(A\H) + P(H')P(A\H')</center>

Mamy:

<center>P(A\ H)( <math>\frac{3}{4}</math>) i P(A\ H')( <math>\frac{1}{2}</math> )</center>

Teraz obliczamy:<br>

<center> P(A)(<math>\frac{3}{5}</math>)(<math>\frac{3}{4}</math>)+(<math>\frac{2}{5}</math>)(<math>\frac{1}{2}</math>)<math>\left(\frac{13}{20}\right)</math></center>

Wzór Bayesa


Wyraża prawdopodobieństwo warunkowe <math>P\left(H_1\setminus A\right)</math> każdego z wzajemnie niezależnych zdarzeń <math>H_1, H_2, H_3, ...H_n</math>., <br>

o dodatnich prawdopodobieństwach, których suma jest całą przestrzenią zdarzeń elementarnych względem zdarzenia A o dodatnim prawdopodob.


Wiemy, że

<center>P(<math>H_1</math>\ A) = P( <math>H_1</math>) <math>\frac{P\left(A\setminus H_1\right)}{P\left(A\right)}</math></center>


Zastępując prawdopodobieństwo P(A) w mianowniku ostatniego ułamka przez:<br>

<center>P(A)= P(<math>H_1</math>)P(A\<math>H_1</math>)+P(<math>H_2</math>)P(A\<math> H_2</math>)+ .... +P(<math>H_n</math>)P(A\ <math>H_n</math>)</center>

otrzymujemy:<br>

<center>P(<math>H_1</math>\A)= <math>\frac{P\left(H_1\right) P(A\setminus H_1)}{P(H_1)P(A\setminus H_1)+P\left(H_2\right)P\left(A\setminus H_2\right)+ .... +P\left(H_n\right)P\left(A\setminus H_n\right)}</math></center>

zwany wzorem Bayesa. Wzór ten pozwala oliczyć prawdopodobieństwo warunkowe hipotezy <math>H_1</math>, w doświadczeniu, w którym<br>

zaszło zdarzenie A. Analogiczne związki zachodzą również dla pozostałych hipotez <math>H_2, H_3, ...H_n</math>. <br>

Można z nich obliczyć prawdopodobieństwa warunkowe przyjętych wcześniej hipotez na podstawie wyniku doświadczenia po jego przeprowadzeniu. (Słownik encyklopedyczny, Edward Siwek, Cykada, Katowice 2002)


Autor: Nowacka Bernadeta
Źródło: Encyklopedia Zarządzania
Treść udostępniana na licencji GNU licencja wolnej dokumentacji 1.3 lub nowsza.

Do góry