Jeg vet at Bayes-regelen er avledet fra den betingede sannsynligheten. Men hva er forskjellen intuitivt? Ligningen ser den samme ut for meg. Nominatoren er den felles sannsynligheten og nevneren er sannsynligheten for det gitte utfallet.
Dette er den betingede sannsynligheten: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $
Dette er Bayes «-regelen: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .
Er ikke «t $ P (B | A) * P (A) $ og $ P (A \ cap B) $ det samme? Når $ A $ og $ B $ er uavhengige, er det ikke nødvendig å bruke Bayes-regelen, ikke sant ?
Kommentarer
Svar
OK , nå som du har oppdatert spørsmålet ditt slik at det inkluderer de to formlene:
$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {forutsatt at} P (B) > 0, \ tag {1} $$ er definisjon av den betingede sannsynligheten for $ A $ gitt at $ B $ skjedde. Tilsvarende $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {forutsatt at} P (A) > 0, \ tag {2} $$ er definisjon av den betingede sannsynligheten for $ B $ gitt at $ A $ oppstod. Nå er det sant at det er trivielt å erstatte verdien av $ P (A \ cap B) $ fra $ (2) $ til $ (1) $ for å komme til $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~ ~ \ text {forutsatt at} P (A), P (B) > 0, \ tag {3} $$ som er Bayes «formel men legg merke til at Bayes» s formel kobler faktisk to forskjellige betingede sannsynligheter $ P (A \ mid B) $ og $ P (B \ mid A) $ , og er i det vesentlige en formel for " å snu kondisjonen rundt ". Pastor Thomas Bayes henviste til dette i form av " invers sannsynlighet " og selv i dag er det kraftig debatt om statistisk slutning skal være basert på $ P (B \ mid A) $ eller den omvendte sannsynligheten (kalt a posteriori eller posterior sannsynlighet).
Det er utvilsomt like gælende til deg som det var for meg da jeg først oppdaget at Bayes «formel bare var en triviell erstatning av $ (2) $ i $ (1) $ . Kanskje hvis du er født for 250 år siden, du (Merk: OP maskerte under brukernavnet AlphaBetaGamma da jeg skrev dette svaret, men har siden endret brukernavnet) kunne ha byttet ut, og da ville folk i dag snakke om AlphaBetaGamma-formelen og AlphaBetaGammian-kjetteri og Naive AlphaBetaGamma-metoden $ ^ * $ i stedet for å påkalle Ba ja «navn overalt.Så la meg trøste deg med tapet av berømmelse ved å påpeke en annen versjon av Bayes «formel. Loven om total sannsynlighet sier at $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ og ved hjelp av dette kan vi skrive $ (3) $ som
$$ P (A \ mid B) = \ frac {P (B \ midt A) P (A)} {P (B \ midt A) P (A) + P (B \ midt A ^ c) P (A ^ c)}, \ tag {5} $$ eller mer generelt som $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ der den bakre sannsynligheten for en mulig " forårsaker " $ A_i $ av en " datum " $ B $ er relatert til $ P ( B \ mid A_i) $ , sannsynligheten for observasjon $ B $ når $ A_i $ er den sanne hypotesen og $ P (A_i) $ , den tidligere sannsynligheten (grusomheter!) for hypotesen $ A_i $ .
$ ^ * $ Det er et kjent papir R. Alpher, H. Bethe og G. Gamow, " The Origin av kjemiske elementer ", Physical Review, 1. april 1948, som ofte kalles $ \ alpha \ beta \ gamma $ paper .
Kommentarer
- Hei, kan du behage forklar hva du mener med ' snu kondisjoneringen rundt '?
- @Siddhant Går fra $ P (A \ midt B) $ til $ P (B \ mid A) $ er det jeg mener med " å snu kondisjonen rundt ". Vennligst ignorere setningen som jeg gjorde opp på stedet for å gi et navn til hva Bayes ' Teorem gjør (det gir uttrykk for $ P (A \ mid B) $ når det gjelder på $ P (B \ mid A) $) siden det forvirrer deg så mye.
Svar
En måte å intuitivt tenke på Bayes «teorem er at når noen av disse er enkle å beregne
$$ P (A∣B) ~~ \ text {or } P (B∣A) $$
vi kan beregne den andre selv om den andre ser ut til å være litt vanskelig i begynnelsen
Tenk på et eksempel, her $$ P (A∣B) $$ er si jeg har et gardin, og jeg fortalte deg at det er et dyr bak gardinet og gitt det er et firbent dyr hva er sannsynligheten for at dyret er hund?
Det er vanskelig å finne en sannsynlighet for det.
Men du kan finne svaret for $$ P (B∣A) $$ Hva er sannsynligheten for et firbent dyr bak gardinen og gi Når det er en hund, er det nå enkelt å beregne at det kan være nesten 1, og du plugger inn disse verdiene i Bayes-teoremet, og du finner svaret på $$ P (A ∣B) $$ det er sannsynligheten for at dyret er en hund som til å begynne med var vanskelig.
Nå er dette bare en forenklet versjon der du intuitivt kan tenke hvorfor omorganisering av formelen kan hjelp oss. Jeg håper dette hjelper.
A
gittB
. Semantisk sier jeg ' d der ' er alltid et behov for å bruke Bayes ' regel , men nårA
ogB
er uavhengige, kan regelen reduseres til en mye enklere form.