Ik weet dat de Bayes-regel is afgeleid van de voorwaardelijke kans. Maar wat is intuïtief het verschil? De vergelijking ziet er voor mij hetzelfde uit. De nominator is de gezamenlijke kans en de noemer is de kans op de gegeven uitkomst.
Dit is de voorwaardelijke kans: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $
Dit is de Bayes-regel: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .
Is niet “t $ P (B | A) * P (A) $ en $ P (A \ cap B) $ hetzelfde? Wanneer $ A $ en $ B $ onafhankelijk zijn, is het niet nodig om de Bayes-regel te gebruiken, toch ?
Opmerkingen
Antwoord
OK , nu u uw vraag heeft bijgewerkt met de twee formules:
$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {mits} P (B) > 0, \ tag {1} $$ de definitie van de voorwaardelijke kans op $ A $ gegeven dat $ B $ opgetreden. Evenzo $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {op voorwaarde dat} P (A) > 0, \ tag {2} $$ de definitie van de voorwaardelijke kans van $ B $ gegeven dat $ A $ opgetreden. Nu is het waar dat het een triviale zaak is om de waarde van $ P (A \ cap B) $ te vervangen door $ (2) $ in $ (1) $ om bij $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {op voorwaarde dat} P (A), P (B) > 0, \ tag {3} $$ dat is Bayes “-formule maar merk op dat Bayes formule verbindt eigenlijk twee verschillende voorwaardelijke kansen $ P (A \ mid B) $ en $ P (B \ mid A) $ , en is in wezen een formule voor " die de conditionering omdraait ". Dominee Thomas Bayes verwees hiernaar in termen van " inverse waarschijnlijkheid " en zelfs vandaag de dag is er heftige discussie over de vraag of statistische gevolgtrekkingen moeten gebaseerd zijn op $ P (B \ mid A) $ of de inverse kans (de a posteriori of posterieure kans genoemd).
Het is ongetwijfeld net zo irritant voor u als voor mij toen ik voor het eerst ontdekte dat de “formule van Bayes slechts een triviale vervanging was van $ (2) $ in $ (1) $ . Misschien als je 250 jaar geleden geboren bent, jij (Opmerking: het OP deed zich voor onder gebruikersnaam AlphaBetaGamma toen ik schreef dit antwoord heeft sindsdien zijn gebruikersnaam veranderd) had de vervanging kunnen maken en dan zouden mensen het vandaag hebben over de AlphaBetaGamma-formule en de AlphaBetaGammiaanse ketterij en de Naïeve AlphaBetaGamma-methode $ ^ * $ in plaats van Ba aan te roepen ja “naam overal.Dus laat me je troosten met je verlies aan roem door te wijzen op een andere versie van de Bayes-formule. De wet van totale waarschijnlijkheid zegt dat $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ en hiermee kunnen we $ (3) $ as
$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ of meer in het algemeen als $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ waarbij de posterieure waarschijnlijkheid van een mogelijke " oorzaak " $ A_i $ van een " datum " $ B $ is gerelateerd aan $ P ( B \ mid A_i) $ , de waarschijnlijkheid van de waarneming $ B $ wanneer $ A_i $ de ware hypothese is en $ P (A_i) $ , de eerdere waarschijnlijkheid (verschrikkingen!) van de hypothese $ A_i $ .
$ ^ * $ Daar is een beroemde krant R. Alpher, H. Bethe en G. Gamow, " The Origin of Chemical Elements ", Physical Review, 1 april 1948, waarnaar gewoonlijk wordt verwezen als de $ \ alpha \ beta \ gamma $ paper .
Reacties
- Hallo meneer, kunt u alstublieft leg uit wat je bedoelt met ' de conditionering omdraaien '?
- @Siddhant Gaande van $ P (A \ mid B) $ tot $ P (B \ mid A) $ is wat ik bedoel met " de conditionering omdraaien ". Negeer de zin, die ik ter plekke verzonnen heb om een naam te geven aan wat Bayes ' Theorem doet (het geeft een uitdrukking voor $ P (A \ mid B) $ in termen van $ P (B \ mid A) $) omdat het je zo in de war brengt.
Antwoord
Een manier om intuïtief aan de stelling van Bayes te denken, is dat wanneer een van deze gemakkelijk te berekenen is
$$ P (A∣B) ~~ \ text {of } P (B∣A) $$
we kunnen de andere berekenen, ook al lijkt de andere in eerste instantie een beetje moeilijk
Bekijk hier een voorbeeld $$ P (A∣B) $$ is zeggen dat ik een gordijn heb en ik zei je dat er een dier achter het gordijn zit en aangezien het een dier met vier poten is, wat is de kans dat dat dier een hond is?
Het is moeilijk daarvoor een waarschijnlijkheid te vinden.
Maar je kunt het antwoord vinden voor $$ P (B∣A) $$ Wat is de kans dat een vierpotig dier achter het gordijn en gi als het een hond is, is het nu gemakkelijk om te berekenen dat het bijna 1 kan zijn en u voegt die waarden in de stelling van Bayes in en u vindt het antwoord voor $$ P (A ∣B) $$ dat is de waarschijnlijkheid dat het dier een hond is, wat in het begin moeilijk was.
Dit is een te vereenvoudigde versie waarin je intuïtief kunt bedenken waarom het herschikken van de formule Help ons. Ik hoop dat dit helpt.
A
gegevenB
. Semantisch gezien moet ik ' zeggen dat ' het altijd nodig is om Bayes ' -regel te gebruiken , maar wanneerA
enB
onafhankelijk zijn, kan de regel worden teruggebracht tot een veel eenvoudiger vorm.