Hasso-Plattner-Institut
  
Hasso-Plattner-Institut
Prof. Dr. Tobias Friedrich
  
 

Bedingte Wahrscheinlichkeiten

Autor: Timo Kötzing

Hier lernst du die Ideen der bedingten Wahscheinlichkeiten kennen. Dazu machen wir die folgenden Schritte.

  1. Grundlagen: Was sind bedingte Wahscheinlichkeiten?
  2. Beispiele: Worauf kann man bedingen?
  3. Gesetzmäßigkeiten: Viele schöne Gesetzmäßigkeiten
  4. Beispiele: Wie man mit bedingten Wahscheinlichkeiten rechnet

Wir legen fest, dass die natürlichen Zahlen \(\mathbb{N} = \{0,1,2,\ldots\}\) die \(0\) enthalten.


Grundlagen

Seien ein Wahrscheinlichkeitsraum \((\Omega,P)\) sowie ein Ereignis \(B \subseteq \Omega\) mit \(P(B) \neq 0\) gegeben. Dann schreiben wir für ein beliebiges Ereignis \(A \subseteq \Omega\) die Wahrscheinlichkeit von \(A\) unter der Bedingung, dass \(B\) eintritt, als \[P(A \mid B) = \frac{P(A \cap B)}{P(B)}\ .\] Intuitiv ist \(P(A \mid B)\) die Wahrscheinlichkeit, dass \(A\) eintritt, nachdem wir uns schon festgelegt haben, dass \(B\) eintritt. Formal schaut man sich dazu die Wahrscheinlichkeit an, dass \(A\) und \(B\) eintreten (also\(P(A \cap B)\)), und skaliert das dann mit der Wahrscheinlichkeit, dass \(B\) eintritt. Man kann nun sogar zeigen, dass \((B,P(\cdot \mid B))\) selbst wieder ein Wahscheinlichkeitsraum ist.

Ähnlich kann man nun bedingte Erwartungwerte definieren. Sei \(X\) eine Zufallsvariable und \(B\) ein Ereignis. Dann ist \[\mathrm{E}(X \mid B) = \sum_{\omega \in \Omega}X(\omega)P(\omega \mid B)\ .\] Das kann man sich ganz intuitiv vorstellen als den Erwartungswert von \(X\) unter der Annahme, dass \(B\) gilt.


Beispiele

Nehmen wir als einfaches Beispiel eine Urne, in der 3 rote und 4 schwarze Bälle sind. Wir greifen nun blind hinein und nehmen nacheinander zufällig alle Bälle heraus, ohne dabei Bälle zurück zu legen. Die Wahrscheinlichkeit, dass der erste Ball rot ist, ist also \(3/7\). Sei nun \(B\) das Ereignis, dass der erste Ball rot ist, und sei \(A\) das Ereignis, dass der zweite Ball rot ist. Es gilt nun \(P(A) = 3/7\), aber \(P(A \mid B) = 1/3\).

Als einfaches Beispiel für bedingte Erwartungswerte sei \(X\) das Ergebnis eines Würfelwurfs. Dann ist \(\mathrm{E}(X) = 3,5\), aber \(\mathrm{E}(X \mid X \mbox{ gerade}) = 4\) und \(\mathrm{E}(X \mid X > 3) = 5\).

Nun ein etwas komplizierteres Beispiel. Wir modellieren die Suche nach einem Auto hinter einer von drei verschlossenen Türen (hinter den falschen Türen ist jeweils eine Ziege, und die kann man nicht gewinnen, im Gegensatz zu dem Auto) (siehe auch Ziegenproblem). Wenn du nun eine Tür auswählen sollst, hinter der du das Auto vermutest, hast du eine Chance von \(1/3\) richtigzuliegen. Da alle drei Fälle für deine Wahl komplett analog sind, nehmen wir an, du wählst Tür 1. Nun wird eine der Türen, hinter denen eine Ziege ist, geöffnet (aber nicht die, welche du gewählt hast, also nicht Tür 1). Dann ist die Frage: Mit welcher Wahrscheinlichkeit ist das Auto hinter Tür 1 (deiner Wahl)? Insbesondere wollen wir entscheiden, ob wir unsere Wahl nicht doch nochmal überdenken wollen und doch die andere (noch verschlossene) Tür nehmen wollen.

Wir wollen dieses Problem formalisieren. Zum einen ist es zufällig, wo das Auto steht, andererseits ist es zufällig, welche Tür geöffnet wird. Sei \(A_1,A_2,A_3\) jeweils das Ereignis, dass das Auto hinter Tür \(1,2,3\) steht; sei \(B_1,B_2,B_3\) jeweils das Ereignis, dass Tür \(1,2,3\) geöffnet wird. Dann ist nun die Wahrscheinlichkeit \(P(A_1 \mid B_2)\) bzw. \(P(A_1 \mid B_3)\) gesucht. Beide sind analog, gehen wir also von \(P(A_1 \mid B_2)\) aus. Wir haben \[P(A_1 \mid B_2) = \frac{P(A_1 \cap B_2)}{P(B_2)}\ .\] Was ist die Wahrscheinlichkeit, dass das Auto hinter Tür 1 ist und zudem Tür 2 geöffnet wird? Diese Wahrscheinlichkeit ist \(1/6\), da das Auto hinter der ersten Tür nur mit Wahrscheinlichkeit \(1/3\) steht und es dann zwei Möglichkeiten für das öffnen der Tür gibt. Was ist die Wahrscheinlichkeit, dass Tür 2 geöffnet wird? Die Wahrscheinlichkeit ist \(1/2\), da Tür 1 nicht geöffnet werden darf, aber alles symmetrisch in Bezug auf Tür 3 ist. Damit haben wir \[P(A_1 \mid B_2) = \frac{P(A_1 \cap B_2)}{P(B_2)} = \frac{1}{3}\ .\] Folglich ist das Auto hinter der anderen, bisher noch verschlossenen Tür mit Wahrscheinlichkeit \(2/3\). Das hört sich vielleicht paradox an, ist aber so. Mehr Informationen dazu gibt es beim Wikipediaartikel zum Ziegenproblem.


Gesetzmäßigkeiten

Bedingte Wahrscheinlichkeiten sind insbesondere sehr praktisch für verschiedene Berechnungen; sie können so etwas wie Fallunterscheidungen formalisieren, wie wir in den folgenden Rechenregeln sehen. Sei \(X\) eine Zufallsvariable und seien \(A,B\) Ereignisse.

Dann gilt der folgende Satz von der total Wahrscheinlichkeit \[P(A) = P(A \mid B)P(B) + P(A \mid \overline{B})P(\overline{B})\ ,\] wobei \(\overline{B} = \Omega \setminus B\) das Komplementärereignis zu \(B\) ist (der Fall, dass \(B\) nicht eintritt). Man kann das so interpretieren, dass man die Wahrscheinlichkeit von \(A\) für die zwei Fälle bestimmt, und dann über die Formel zur Gesamtwahrscheinlichkeit zusammensetzt.

Ähnlich gibt es auch den Satz vom totalen Erwartungswert \[\mathrm{E}(X) = \mathrm{E}(X \mid B)P(B) + \mathrm{E}(X \mid \overline{B})P(\overline{B})\ .\] Man kann das wieder als Fallunterscheidung interpretieren, bei der man den Erwartungswert von \(X\) für die zwei Fälle bestimmt und dann über die Formel zum Gesamterwartungswert zusammensetzt.

Manchmal sehr hilfreich ist der Satz von Bayes, mit dem man die Ereignisse \(A\) und \(B\) sozusagen vertauschen kann. \[P(A \mid B) = P(B \mid A)\frac{P(A)}{P(B)}\ .\]


Diese Gesetze zu kennen ist wichtig. Noch wichtiger ist es, sie zu verstehen. Dabei bist jetzt du gefragt: Kannst du alle drei Gesetze aus den grundlegenden Definitionen ableiten?


Beispiele

Manchmal wollen wir am Sonntagnachmittag spazieren gehen. Wenn die Sonne scheint, ist die Wahrscheinlichkeit da natürlich hoch: \(0{,}75\). Ansonsten ist uns das Wetter egal (auch Blitz und Regen hält uns von nichts ab), die Wahrscheinlichkeit beträgt nun aber nur noch \(0{,}4\). Wenn mit Wahrscheinlichkeit \(0{,}1\) die Sonne scheint, was ist dann die gesamte Wahrscheinlichkeit, spazieren zu gehen? Sei dazu \(A\) das Ereignis, dass wir spazieren gehen, und \(B\) das Ereignis, dass die Sonne scheint. Dann gilt \[P(A) = P(A \mid B)P(B) + P(A \mid \overline{B})P(\overline{B}) = 0{,}75 \cdot 0{,}1 + 0{,}4 \cdot 0{,}9 = 0{,}435\ .\]

Stellen wir uns vor, wir wollen berechnen, wie lange unser Rechner im Mittel zum Booten braucht. Sei \(X\) also die Zufallsvariable, die diese Zeit bei einem konkreten Bootvorgang beschreibt. Dieser Vorgang hängt von einigen zufälligen Entscheidungen ab, liegt aber im Mittel bei 20 Sekunden. Die Ausnahme ist, wenn das Dateisystem geprüft wird, dann sind es 200 Sekunden; das passiert aber nur mit einer Wahrscheinlichkeit von 2 %. Sei \(A\) das Ereignis, dass es zu keiner Prüfung kommt. Wir können dann wie folgt rechnen: \[\mathrm{E}(X) = \mathrm{E}(X \mid A)P(A) + \mathrm{E}(X \mid \overline{A})P(\overline{A}) = 20 \cdot 0{,}98 + 200 \cdot 0{,}02 = 23{,}6\ .\]


Was haben wir gelernt?

  1. Bedingte Wahrscheinlichkeiten fokussieren den Wahrscheinlichkeitsraum.
  2. Rechenregeln erleichtern das Rechnen mit Wahrscheinlichkeiten, insbesondere für Fallunterscheidungen.