1 / 33

Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6 Mehrstufige Zufallsexperimente. Inhalt. 6.1 Mehrstufige Experimente 6.2 Bedingte Wahrscheinlichkeiten. 6.1 Mehrstufige Experimente. Grundvorstellung:

gerry
Download Presentation

Kapitel 6 Mehrstufige Zufallsexperimente

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Kapitel 6Mehrstufige Zufallsexperimente

  2. Inhalt 6.1 Mehrstufige Experimente 6.2 Bedingte Wahrscheinlichkeiten

  3. 6.1 Mehrstufige Experimente Grundvorstellung: Viele Experimente werden der Reihe nach (in Stufen) ausgeführt. Dabei können die Experimente einer Stufe von den Experimente der vorigen Stufen abhängen oder nicht. Grundmodellierung: W = W1 W2  W3  ...  Wn, dabei ist Wi die Ergebnismenge der i-ten Stufe.

  4. Beispiel In einer Urne seien eine rote und drei blaue Kugeln enthalten. Man zieht zufällig eine der Kugeln und legt dann diese und eine weitere Kugel der gezogenen Farbe in die Urne zurück. Nun zieht man ein zweites Mal. Wie groß ist die Wahrscheinlichkeit, jetzt eine rote Kugel zu ziehen? Modellierung:W = W1 W2 mit W1= W2 = {r, b}. Das Ereignis „beim zweiten Mal eine rote Kugel“ ist A = {(r , r), (b , r)}.

  5. Bestimmung der Wahrscheinlichkeiten Frage: Was ist p(w) für w = (a1, a2)  A? 1. Stufe: Die Wahrscheinlichkeit für r ist ¼, die für b ist ¾. 2. Stufe: Im Fall a1 = r enthält die Urne vor dem zweiten Ziehen 2 rote und 3 blaue Kugeln. Also ist die Wahrscheinlichkeit für rot = 2/5. Im Fall a1 = b enthält die Urne vor dem zweiten Ziehen 1 rote und 4 blaue Kugeln. Also ist die Wahrscheinlichkeit für rot = 1/5.

  6. Übergangswahrscheinlichkeiten Daraus ergibt sich p(r, r) = 1/42/5 = 2/20, p(r, b) = 1/4 3/5 = 3/20, p(b, r) = 3/41/5 = 3/20, p(b, b) = 3/4 4/5 = 12/20. Erster Faktor: Wahrscheinlichkeit für das erste ExperimentZweiter Faktor: Wahrscheinlichkeit für den Ausgang des zweiten Experiments aufgrund des Ausgangs des ersten Experiments Diese „zweiten Faktoren“ heißen Übergangswahrscheinlichkeiten. Es ergibt sich: P(A) = p(r, r) + p(b, r) = 2/20 + 3/20 = ¼.

  7. Baumdiagramm Start 3/4 1/4 r b 1/5 4/5 2/5 3/5 r b r b 3/20 2/20 3/20 12/20

  8. Pfadregeln An jeder Verbindung findet man die entsprechende Übergangswahrscheinlichkeit. 1. Pfadregel (Multiplikationsregel): Um die Wahrscheinlichkeit eines Elementarereignisses w zu erhalten, multipliziert man die Wahrscheinlichkeiten auf dem Pfad zu w. 2. Pfadregel (Additionsregel): Um die Wahrscheinlichkeit eines Ereignisses A zu erhalten, addiert man die Wahrscheinlichkeiten aller Ereignisse w A.

  9. Formalisierung 1. Startverteilung: Es gibt Wahrscheinlichkeiten p1(ai), ai  W1 mit p1(a1) + p1(a2) + ... = 1. 2. Für alle ai  W1 gibt es Übergangswahrscheinlichkeiten p2(bj  ai), bj  W2 mit p2(b1  ai) + p2(b2  ai) + ... = 1. 3. Für alle ai  W1, bj  W2 gibt es Übergangswahrscheinlichkeiten p3(ck  ai, bj), ck  W3 mit p3(c1  ai, bj) + p3(c2  ai, bj) + ... = 1. Usw. 1. Pfadregel: Für w = (ai, bj, ck, ...) gilt p(w) = p1(ai)  p2(bj  ai)  p3(ck  ai, bj)  ...

  10. Produktexperimente • Idee: Das j-te Experiment wird „unabhängig“ von den ersten j–1 Experimenten durchgeführt. • Vorstellung: (a) Experimente räumlich und zeitlich getrennt. (b) Experimente gleichzeitig. • Beispiel: Mehrfaches Würfeln • Mathematische Beschreibung: Für w = (ai, bj, ck, ...) gilt p(w) = p1(ai)  p2(bj  ai)  p3(ck  ai, bj)  ...

  11. 6.2 Bedingte Wahrscheinlichkeiten • Idee: Verwertung von Teilinformationen, „Lernen aus Erfahrung“ • In der Regel: Wahrscheinlichkeit eines Ereignisses, das feststeht – das wir aber nicht kennen.

  12. Beispiele 1, 2 Beispiel 1. In einer Urne sind zwei rote, zwei schwarze und zwei blaue Kugeln. Eine Person zieht zufällig Kugeln (ohne Zurücklegen). Sie teilt einer anderen Person (per Telefon) mit, wann sie zum ersten Mal eine blaue Kugel zieht. Angenommen, das ist beim dritten Mal. Wie groß ist die Wahrscheinlichkeit, dass die ersten beiden Kugeln rot waren? Beispiel 2. „Ziegenproblem“: Der Kandidat zeigt auf Tür 1, der Moderator öffnet Tür 3 (Ziegentür). Wie groß ist die Wahrscheinlichkeit, dass Tür 2 die Autotür ist?

  13. Beispiel 3 Beispiel 3. Weit entfernt werden zwei Würfel geworfen. Per Telefon erhalten wir die Nachricht „Augensumme mindestens 8“. Wie groß ist die Wahrscheinlichkeit, dass mindestens einer der Würfel eine Sechs zeigt? Bemerkung: Bei allen Experimenten geht es um die Wahrscheinlichkeit eines Ereignisses, das feststeht – aber uns unbekannt ist.

  14. Erste mathematische Modellierung Wir betrachten ein Zufallsexperiment w. Wir wissen nur, dass ein Ereignis B W eingetreten ist, dass also w B ist. Ziel: Bestimmung der Wahrscheinlichkeit für das Eintreten eines Ereignisses A W unter der Bedingung B. Wir schreiben dafür P(AB).

  15. Motivation durch relative Häufigkeiten Man könnte sich vorstellen, den Wert P(AB) dadurch anzunähren, dass man viele Versuche durchführt: rn(AB) = (Anzahl der Versuche, in denen A und B eintritt) : (Anzahl der Versuche, bei denen B eintritt) Anders geschrieben: rn(AB) = rn(A  B) / rn(B).

  16. Definition Definition.Sei (W, P) ein Wahrscheinlichkeitsraum, und seien A, B W Ereignisse mit P(B) > 0. Dann heißt P(AB) = P(A  B) / P(B) die bedingte Wahrscheinlichkeit von A unter der Bedingung (Hypothese) B. Schreibweise: PB(A) = P(AB)

  17. Einfache Eigenschaften 6.2.1 Hilfssatz. (a)0  PB(A)  1 für alle A  W. (b) PB(W) = PB(B) = 1. (c) PB(A1  A2) = PB(A1) + PB(A2), falls A1, A2 disjunkte Ereignisse sind. Beweis. (a) Wegen A  B  B ist P(A  B)  P(B), also P(AB) = P(A  B) / P(B)  1. (c) PB(A1A2) = P((A1A2)  B) / P(B) = P((A1B)  (A2B)) / P(B) = [P(A1B) + P(A2B)] / P(B) = P(A1B) / P(B) + P(A2B) / P(B) = PB(A1) + PB(A2). 

  18. Spezialfall Für w W gilt pB(w) = p(w)  P(B)–1, falls w  B pB(w) = 0 sonst. D.h. man stellt sich vor, dass für alle wW die Wahrscheinlichkeit p(w) um den Faktor P(B) –1 vergrößert wird, und sonst = 0 gesetzt wird.

  19. Lösung 1. Beispiel Wir nummerieren die Kugeln mit 1, 2, 3, 4, 5, 6 durch, wobei 1, 2: rot, 3, 4: blau, 5, 6: schwarz. Wir betrachten die Ereignisse A = {(a1, a2, a3)  {a1, a2} = {1,2}} („die beiden ersten Kugeln sind rot“) B = {(a1, a2, a3)  a3  {3,4}, a1, a2  {1,2,5,6}} („beim dritten Wurf zum ersten Mal eine blaue Kugel“). Wir interessieren uns für P(AB).

  20. Lösung 1. Beispiel Es gilt

  21. Das Ziegenproblem Wir modellieren das Ziegenproblem wie folgt: Sei W= {1,2,3}  {1,2,3}  {1,2,3}. Ein Element w = (a1, a2, a3)  W interpretieren wir so: a1 ist die Nummer der Autotüre, a2 die Nummer der vom Kandidaten gewählten Tür, a3 die vom Moderator geöffnete Tür. Für die Wahrscheinlichkeiten nehmen wir an: p1(j) = 1/3, denn das Auto wird zufällig auf eine der Türen verteilt. p2(k  j) = 1/3, denn der Kandidat wählt rein zufällig eine Tür. Es gilt p(w) = p(a1, a2, a3) = p1(a1)  p2(a2  a1)  p3(a3  a1, a2).

  22. Das Ziegenproblem II Wir nehmen an, dass der Moderator im Fall, dass ihm zwei Türen zur Auswahl stehen, zufällig eine der beiden wählt. Das bedeutet: p3(h  j, k) = 1, falls j, k, h die drei Zahlen 1, 2, 3 sind. p3(h  j, k) = 1/2, falls j = k, aber h  j. p3(h  j, k) = 0 in allen anderen Fällen. Das bedeutet p(j, k, h) = 1/9, falls j, k, h die drei Zahlen 1, 2, 3 sind. p(j, k, h) = 1/18, falls j = k, aber h  j. p(j, k, h) = 0 in allen anderen Fällen.

  23. Das Ziegenproblem III: Die Gewinnwahrscheinlichkeiten Schließlich definieren wir: Aj = {(a1, a2, a3)  W  a1 = j} („das Auto ist hinter der Türe j“) Wk = {(a1, a2, a3)  W  a2 = k} („der Kandidat wählt Türe k“) Mh = {(a1, a2, a3)  W  a3 = h} („der Moderator öffnet die Türe h“) Wir interessieren uns zum Beispiel für die Wahrscheinlichkeit P(A2 W1  M3), d.h. die Wahrscheinlichkeit, das Auto hinter Tür 2 zu finden, falls der Kandidat Tür 1 gewählt und der Moderator Tür 3 geöffnet hat (Erfolg der Wechselstrategie).

  24. Das Ziegenproblem IV P(A2 W1  M3) = P(A2 W1  M3) / P(W1  M3) = = p(2, 1, 3) / [p(2, 1, 3) + p(1, 1, 3)] = 1/9 / [1/9 + 1/18] = 2/3. (Beachte, dass W1  M3 = {(2,1,3), (1,1,3)}, da das Ereignis (3,1,3) nicht möglich ist.) Andererseits ist P(A1 W1  M3) = P(A1 W1  M3) / P(W1  M3) = = p(1, 1, 3) / [p(2, 1, 3) + p(1, 1, 3)] = 1/18 / [1/9 + 1/18] = 1/3. Mit anderen Worten: Die Wechselstrategie verdoppelt die Gewinnchancen!

  25. Die Formel von der totalen Wahrscheinlichkeit 6.2.2 Formel von der totalen Wahrscheinlichkeit. Seien A1, A2, …, As Ereignisse, die paarweise disjunkt sind, und für die A1 A2  …  As = W gilt. Dann gilt für jedes Ereignis B: P(B) = P(A1)P(B  A1) + P(A2)P(B  A2) + …+ P(As)P(B  As). Beweis für s = 2. P(B) = P(W  B) = P((A1  A2)  B) = P((A1  B)  (A2  B)) = P(A1  B) + P(A2  B) = P(A1)P(B  A1) + P(A2)P(B  A2). 

  26. Die Formel von Bayes 6.2.3 Formel von Bayes (Thomas Bayes 1702-1761).Seien P(A) > 0, P(B) > 0. Dann gilt: P(A  B) = P(A)  P(B  A) / P(B). Beweis. Da P(A) > 0 und P(B) > 0, existieren die bedingten Wahrscheinlichkeiten P(B  A) und P(A  B), und nach Definition gelten: P(A  B) = P(A B)  P(B) und P(A  B) = P(B  A)  P(A). Zusammen folgt P(A B)  P(B) = P(A  B) = P(B  A)  P(A). 

  27. Das Simpson-Paradox Vor einigen Jahren trat an der University of Berkeley in Kalifornien folgendes Phänomen auf: - Unter je 1000 Bewerbern wurde weniger Frauen als Männer zugelassen, - in jedem Fach wurden Frauen gegenüber Männern prozentual bevorzugt.

  28. Simpson-Paradox: Beispiel Wir machen uns das an einem Beispiel klar. Die Universität möge nur zwei Fächer haben. Männer Frauen Bewerber zugelassen Bewerberinnen zugelassen Fach 1 900 720 (80%) 200 180 (90%) Fach 2 100 20 (20%) 800 240 (30%) Summe 1000 740 1000 420

  29. Stochastische Unabhängigkeit Wir wollen ausdrücken, dass das Eintreten eines Ereignisses B keinen Einfluss auf das Eintreten eines Ereignisses A hat. Definition. Seien A und B Ereignisse. Wir nennen diese stochastisch unabhängig, wenn P(A) = P(A  B) gilt. Beobachtung: P(A) = P(A  B)  P(A B) = P(A)P(B)  P(B) = P(B  A). (Beweis: P(A) = P(A  B)  P(A) = P(A  B) / P(B)  P(A)  P(B) = P(A  B)  P(B) = P(A  B) / P(A)  P(B) = P(B  A).)

  30. Beispiele 1. Würfeln mit einem Würfel: A = {2,3}, B = {2,4,6}. P(A) = 2/6 = 1/3, P(B) = 3/6 = 1/2, P(A  B) = 1/6. 2. Zweimaliges Würfeln. A = Augensumme ist gerade, B = der erste Wurf hat eine gerade Augenzahl P(A) = 1/2, P(B) = 1/2, P(A  B) = ¼.

  31. Komplementäre Ereignisse 6.2.4 Hilfssatz. Seien A und B unabhängige Ereignisse. Dann sind auch A und B (= W \ B) unabhängig. Beweis. Es gilt P(A  B) = P(A \ (A  B)) = P(A) – P(A  B) = P(A) – P(A)  P(B) = P(A)  (1 – P(B)) = P(A)  P(B). 

  32. Verallgemeinerung der Definition Definition.Drei Ereignisse A, B, C werden stochastisch unabhängig genannt, wenn folgende Gleichungen gelten: P(A)  P(B) = P(A  B), P(B)  P(C) = P(B  C), P(A)  P(C) = P(A  C), P(A)  P(B)  P(C) = P(A  B  C). Entsprechend: Verallgemeinerung auf vier, fünf, … Ereignisse.

  33. Beispiel Viermaliger Münzwurf. A = Kopf im ersten Wurf B = Kopf im zweiten Wurf C = Kopf im dritten Wurf P(A) = P(B) = P(C) = 1/2. P(A  B) = P(B  C) = P(A  C) = 1/4. P(A  B C) = 1/8.

More Related