Unterschied zwischen bedingter Wahrscheinlichkeit und Bayes-Regel

Ich weiß, dass die Bayes-Regel aus der bedingten Wahrscheinlichkeit abgeleitet wird. Aber was ist intuitiv der Unterschied? Die Gleichung sieht für mich gleich aus. Der Nominator ist die gemeinsame Wahrscheinlichkeit und der Nenner ist die Wahrscheinlichkeit des gegebenen Ergebnisses.

Dies ist die bedingte Wahrscheinlichkeit: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

Dies ist die Bayes-Regel: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Ist nicht „t $ P (B | A) * P (A) $ und $ P (A \ cap B) $ gleich? Wenn $ A $ und $ B $ unabhängig sind, muss die Bayes-Regel nicht verwendet werden ?

Kommentare

  • Wenn Sie Ihrer Frage die spezifischen Gleichungen hinzufügen würden, die für Sie gleich aussehen, könnte Ihnen möglicherweise jemand helfen. Die beiden, mit denen ich vertraut bin, sehen für mich ganz anders aus, aber Statistiken haben eine lange Tradition. SE zu sagen, dass die Bayes-Formel $$ P (A \ mid B) = \ frac {P (A \ cap B)} {lautet P (B)} $$, was eigentlich die Definition der bedingten Wahrscheinlichkeit von $ A $ bei $ B $ und überhaupt nicht der Bayes-Formel ist.
  • @DilipSarwate, ich habe meine Frage aktualisiert.
  • Zu Ihrer letzten Frage: Ja, das sind die gleichen! ' bedeutet jedoch nicht, dass die Bayes ' -Regel ' keine nützliche Formel ist. Die bedingte Wahrscheinlichkeitsformel ' gibt uns nicht die Wahrscheinlichkeit von A bei B. Semantisch würde ich ' sagen, dass ' immer die Bayes ' -Regel verwenden muss , aber wenn A und B unabhängig sind, kann die Regel auf eine viel einfachere Form reduziert werden.
  • Ich verstehe Die Bayes-Regel ist nützlich. Wenn A und B nicht unabhängig sind, was ist der Unterschied zwischen der bedingten Wahrscheinlichkeitsfunktion und der Bayes-Regel, wenn die Nominatoren im Grunde gleich sind (korrigieren Sie mich, wenn ich falsch liege)?
  • Meine Antwort hier bietet eine andere Ansicht im Wesentlichen dieses Problems.

Antwort

OK Jetzt, da Sie Ihre Frage so aktualisiert haben, dass sie die beiden Formeln enthält:

$$ P (A \ mid B) = \ frac {P (A \ cap B. )} {P (B)} ~~ \ text {vorausgesetzt,} P (B) > 0, \ tag {1} $$ ist die Definition der bedingten Wahrscheinlichkeit von $ A $ bei $ B $ ist aufgetreten. In ähnlicher Weise ist $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {vorausgesetzt, dass} P (A) > 0, \ tag {2} $$ die Definition der bedingten Wahrscheinlichkeit von $ B $ bei $ A $ ist aufgetreten. Nun ist es wahr, dass es eine triviale Angelegenheit ist, den Wert von $ P (A \ cap B) $ durch zu ersetzen $ (2) $ in $ (1) $ , um zu $$ P (A \ mid B) zu gelangen ) = \ frac {P (B \ Mitte A) P (A)} {P (B)} ~~ \ text {vorausgesetzt, dass} P (A), P (B) > 0, \ tag {3} $$ , was Bayes „-Formel ist, aber beachten Sie, dass Bayes“ s Die Formel verbindet tatsächlich zwei verschiedene bedingte Wahrscheinlichkeiten $ P (A \ mid B) $ und $ P. (B \ mid A) $ und ist im Wesentlichen eine Formel für " Drehen der Konditionierung um ". Reverend Thomas Bayes verwies darauf mit der umgekehrten Wahrscheinlichkeit " ", und auch heute gibt es heftige Debatten darüber, ob statistische Inferenz erfolgen sollte basiert auf $ P (B \ mid A) $ oder der inversen Wahrscheinlichkeit (als a posteriori oder posterior Wahrscheinlichkeit bezeichnet).

Es ist zweifellos genauso ärgerlich für Sie wie für mich, als ich zum ersten Mal entdeckte, dass die Bayes-Formel nur eine triviale Substitution von $ (2) $ in war $ (1) $ . Wenn Sie vor 250 Jahren geboren wurden, Sie (Hinweis: Das OP hat sich beim Schreiben unter dem Benutzernamen AlphaBetaGamma maskiert Diese Antwort hat aber seitdem seinen Benutzernamen geändert.) hätte die Substitution vornehmen können, und dann würden die Leute heute über die AlphaBetaGamma-Formel und die AlphaBetaGammian-Häresie und die naive AlphaBetaGamma-Methode sprechen. $ ^ * $ anstatt Ba aufzurufen ja „Name überall.Lassen Sie mich Sie über Ihren Verlust an Ruhm trösten, indem Sie auf eine andere Version der Bayes-Formel hinweisen. Das Gesetz der Gesamtwahrscheinlichkeit besagt, dass $$ P (B. ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ und mit diesem können wir $ (3) $ als

$$ P (A \ mid B) = \ frac {P (B. \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ oder allgemeiner als $$ P (A_i \ Mitte B) = \ frac {P (B \ Mitte A_i) P (A_i)} {P (B \ Mitte A_1) P (A_1 ) + P (B \ Mitte A_2) P (A_2) + \ cdots + P (B \ Mitte A_n) P (A_n)}, \ tag {6} $$ wobei die hintere Wahrscheinlichkeit eines möglichen " verursacht " $ A_i $ eines " Datum " $ B $ bezieht sich auf $ P ( B \ mid A_i) $ , die Wahrscheinlichkeit der Beobachtung $ B $ wenn $ A_i $ die wahre Hypothese ist und $ P (A_i) $ , die vorherige Wahrscheinlichkeit (Horror!) der Hypothese $ A_i $ .


$ ^ * $ Es gibt ein berühmtes Papier von R. Alpher, H. Bethe und G. Gamow, " The Origin of Chemical Elements ", Physical Review, 1. April 1948, das allgemein als the $ \ alpha \ beta \ gamma $ Papier .

Kommentare

  • Hallo Herr, könnten Sie bitte Erklären Sie, was Sie mit ' Drehen der Konditionierung um '?
  • @Siddhant Going from $ P (A \ Mitte B) $ bis $ P (B \ Mitte A) $ meine ich mit " Drehen der Konditionierung um ". Bitte ignorieren Sie den Satz, den ich mir vor Ort ausgedacht habe, um dem Bayes ' Theorem einen Namen zu geben (er gibt einen Ausdruck für $ P (A \ mid B) $ in Begriffen von $ P (B \ mid A) $), da es Sie so sehr verwirrt.

Antwort

Eins Der Weg, um intuitiv an das Bayes-Theorem zu denken, ist, dass, wenn eines davon einfach zu berechnen ist,

$$ P (A∣B) ~~ \ text {oder } P (B∣A) $$

Wir können den anderen berechnen, obwohl der andere auf den ersten Blick etwas schwierig zu sein scheint.

Betrachten Sie hier ein Beispiel $$ P (A∣B) $$ sagt, ich habe einen Vorhang und ich habe dir gesagt, dass sich hinter dem Vorhang ein Tier befindet, und vorausgesetzt, es ist ein vierbeiniges Tier, was ist die Wahrscheinlichkeit, dass dieses Tier ein Hund ist?

Es ist schwer, eine Wahrscheinlichkeit dafür zu finden.

Aber Sie können die Antwort für finden $$ P (B∣A) $$ Wie hoch ist die Wahrscheinlichkeit, dass sich ein vierbeiniges Tier hinter dem Vorhang und dem Gi befindet? Wenn es sich um einen Hund handelt, ist es jetzt einfach zu berechnen, dass er fast 1 sein könnte. Wenn Sie diese Werte in den Bayes-Satz einfügen, finden Sie die Antwort für $$ P (A. ∣B) $$ das ist die Wahrscheinlichkeit, dass das Tier ein Hund ist, der anfangs schwer war.

Dies ist nur eine stark vereinfachte Version, in der Sie intuitiv überlegen können, warum die Formel neu angeordnet werden könnte Hilf uns. Ich hoffe das hilft.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.