mathpoint.ch    
  Bedingte Wahrscheinlichkeit
   
 
   
  zum Index
 

 

 

Das folgende Beispiel stammt aus Ian Hacking, An Introduction to Probability and Inductive Logic, Cambridge Universitiy Press, New York, 9. Auflage, 2009, p.173 ff.
Wir ändern den Inhalt von Hackings Beispiel etwas ab:

Ein Spielzeuggeschäft bezieht Holzkugeln von zwei Firmen, A und B. Von A stammen 60%, von B 40% der Kugeln. Die Kugeln von A sind zu 96% makelllos, diejenigen von B nur zu 72%, die andern weisen kleine Unschönheiten auf. Eine neue Lieferung Kugeln trifft ein. Mit einer Wahrscheinlichkeit von 60% stammt sie von A, mit einer Wahrscheinlichkeit von 40% von B.

Nun zieht man aus der Lieferung eine Kugel. Sie ist einwandfrei. Man legt sie wieder zurück. Etwas später zieht man eine zweite Kugel. Sie ist fehlerhaft.

Frage: Mit welcher Wahrscheinlichkeit stammte die Lieferung von Firma A?

Lösung:

0.6 und 0.4 sind die A priori-Wahrscheinlichkeiten. Es bedeute "r", dass die Kugel "richtig" sei, "f", dass sie fehlerhaft sei.

Die bedingte Wahrscheinlichkeit, dass die Kugel richtig ist, unter der Bedingung, dass sie von A stammt, beträgt 0.96, in Zeichen: P(r / A) = 0.96. Analog ist P(r / B) = 0.72. Das sind die "Glaubwürdigkeiten" der Firmen ("Likelihoods").

Um obige Frage zu lösen, zeichnen wir einen Entscheidungsbaum:

Wir zogen zuerst eine "richtige" Kugel und dann eine fehlerhafte. Diese Fälle sind im Baum oben mit roten Ästen gezeichnet. Wir suchen die Wahrscheinlichkeit, dass diese Situation durch Ziehen aus dem Behälter der Firma A entstanden ist. Das sind die im Baum oben fett gedruckten Äste. Die gesuchte A posteriori-Wahrscheinlichkeit berechnet sich somit wie folgt:

0.6*0.96*0.04 / [0.6*0.96*0.04 + 0.4*0.72*0.28] = 2/9.

Etwas salopp ausgedrückt: Gesuchte Wahrscheinlichkeit = Wahrscheinlichkeit "fetter, roter Pfad" dividiert durch Wahrscheinlichkeit "alle roten Pfade".

Das Experiment (Ziehen zweier Kugeln) mit dem Ergebnis (r ; f) hat unsere Wahrscheinlichkeits-Sicht (dass die beiden Kugeln von A stammen) verändert, von 0.6 auf 2/9 = 0.22...
Das ist die "A posteriori-Wahrscheinlichkeit" aufgrund des Ergebnisses (r ; f) unseres Experiments. Wir finden es jetzt unwahrscheinlicher, dass die Lieferung von Firma A stammt.

Auf diese Weise kann die "Glaubwürdigkeit" von Hypothesen ("Kugel stammt von A") durch Erfahrung und Experiment modifiziert werden.

 

Persönliche Einschätzungen
Die Regeln beim Rechnen mit bedingten Wahrscheinlichkeiten können auch benützt werden, wenn persönliche, subjektive Einschätzungen ins Spiel kommen. Das folgende Beispiel stammt aus derselben Quelle wie das Beispiel oben.

Louise erwägt, Pharmazie zu studieren. G soll bedeuten: Pharmazeutin wäre ein guter Job für Louise.
Nun hört sie das Gerücht, dass gesetzliche Restriktionen R für Apotheken eingeführt werden sollen, welche die Medikamentenabgabe erschweren.
Das würde den Umsatz schmälern und den Beruf weniger attraktiv machen, d.h. die Wahrscheinlichkeit für G reduzieren.
Louise nimmt eine persönliche Einschätzung vor: Falls R eingeführt wird, ist die Wahrscheinlichkeit P, dass der Job für Louise gut sein wird 0.1, d.h. P(G/R) = 0.1.
Falls R nicht eingeführt wird, schätzt sie die Wahrscheinlichkeit für G auf 0.8, denn es könnten noch andere Einflüsse die Qualität des Jobs beeinflussen.
Louise schätzt zudem aufgrund von Informationen die Wahrscheinlichkeit für die Einführung von R auf P(R) = 0.75.

Wie gross ist die Gesamteinschätzung für G nun im Lichte dieser persönlichen Annahmen?

Wir rechnen (siehe Baum oben): 0.75*0.1 + 0.25*0.8 = 0.275.

Louise kommt somit durch Kombination ihrer persönlichen Teil-Einschätzungen zu einem eher negativen Studienentscheid.
Der Unterschied zur "harten" Wahrscheinlichkeitsrechnung ist, dass hier persönliche Einschätzungen nach den Regeln der Wahrscheinlichkeitsrechnung kombiniert werden.

Siehe auch hier.