forskjell mellom betinget sannsynlighet og bayes-regel

Jeg vet at Bayes-regelen er avledet fra den betingede sannsynligheten. Men hva er forskjellen intuitivt? Ligningen ser den samme ut for meg. Nominatoren er den felles sannsynligheten og nevneren er sannsynligheten for det gitte utfallet.

Dette er den betingede sannsynligheten: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

Dette er Bayes «-regelen: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Er ikke «t $ P (B | A) * P (A) $ og $ P (A \ cap B) $ det samme? Når $ A $ og $ B $ er uavhengige, er det ikke nødvendig å bruke Bayes-regelen, ikke sant ?

Kommentarer

  • Hvis du vil legge til de spesifikke ligningene som ser like ut til deg i spørsmålet ditt, kan det hende noen kan hjelpe deg. De to som jeg er kjent med ser ganske annerledes ut for meg, men det er lang tradisjon for statistikk. SE for å si at Bayes-formelen er $$ P (A \ mid B) = \ frac {P (A \ cap B)} { P (B)} $$ som faktisk er definisjonen av den betingede sannsynligheten for $ A $ gitt $ B $, og ikke Bayes-formelen i det hele tatt.
  • @DilipSarwate, jeg har oppdatert spørsmålet mitt.
  • Til ditt siste spørsmål: ja disse er de samme! Det betyr ikke ' t Bayes ' regel er ikke ' t en nyttig formel. Den betingede sannsynlighetsformelen gir oss ikke ' t sannsynligheten for A gitt B. Semantisk sier jeg ' d der ' er alltid et behov for å bruke Bayes ' regel , men når A og B er uavhengige, kan regelen reduseres til en mye enklere form.
  • Jeg forstår Bayes regel er nyttig. Gitt A og B ikke er uavhengige, hva er forskjellen mellom betinget sannsynlighetsfunksjon og Bayes hvis nominatorene i utgangspunktet er de samme (korriger meg hvis jeg tar feil)?
  • Mitt svar her gir et nytt syn på i hovedsak dette problemet.

Svar

OK , nå som du har oppdatert spørsmålet ditt slik at det inkluderer de to formlene:

$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {forutsatt at} P (B) > 0, \ tag {1} $$ er definisjon av den betingede sannsynligheten for $ A $ gitt at $ B $ skjedde. Tilsvarende $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {forutsatt at} P (A) > 0, \ tag {2} $$ er definisjon av den betingede sannsynligheten for $ B $ gitt at $ A $ oppstod. Nå er det sant at det er trivielt å erstatte verdien av $ P (A \ cap B) $ fra $ (2) $ til $ (1) $ for å komme til $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~ ~ \ text {forutsatt at} P (A), P (B) > 0, \ tag {3} $$ som er Bayes «formel men legg merke til at Bayes» s formel kobler faktisk to forskjellige betingede sannsynligheter $ P (A \ mid B) $ og $ P (B \ mid A) $ , og er i det vesentlige en formel for " å snu kondisjonen rundt ". Pastor Thomas Bayes henviste til dette i form av " invers sannsynlighet " og selv i dag er det kraftig debatt om statistisk slutning skal være basert på $ P (B \ mid A) $ eller den omvendte sannsynligheten (kalt a posteriori eller posterior sannsynlighet).

Det er utvilsomt like gælende til deg som det var for meg da jeg først oppdaget at Bayes «formel bare var en triviell erstatning av $ (2) $ i $ (1) $ . Kanskje hvis du er født for 250 år siden, du (Merk: OP maskerte under brukernavnet AlphaBetaGamma da jeg skrev dette svaret, men har siden endret brukernavnet) kunne ha byttet ut, og da ville folk i dag snakke om AlphaBetaGamma-formelen og AlphaBetaGammian-kjetteri og Naive AlphaBetaGamma-metoden $ ^ * $ i stedet for å påkalle Ba ja «navn overalt.Så la meg trøste deg med tapet av berømmelse ved å påpeke en annen versjon av Bayes «formel. Loven om total sannsynlighet sier at $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ og ved hjelp av dette kan vi skrive $ (3) $ som

$$ P (A \ mid B) = \ frac {P (B \ midt A) P (A)} {P (B \ midt A) P (A) + P (B \ midt A ^ c) P (A ^ c)}, \ tag {5} $$ eller mer generelt som $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ der den bakre sannsynligheten for en mulig " forårsaker " $ A_i $ av en " datum " $ B $ er relatert til $ P ( B \ mid A_i) $ , sannsynligheten for observasjon $ B $ når $ A_i $ er den sanne hypotesen og $ P (A_i) $ , den tidligere sannsynligheten (grusomheter!) for hypotesen $ A_i $ .


$ ^ * $ Det er et kjent papir R. Alpher, H. Bethe og G. Gamow, " The Origin av kjemiske elementer ", Physical Review, 1. april 1948, som ofte kalles $ \ alpha \ beta \ gamma $ paper .

Kommentarer

  • Hei, kan du behage forklar hva du mener med ' snu kondisjoneringen rundt '?
  • @Siddhant Går fra $ P (A \ midt B) $ til $ P (B \ mid A) $ er det jeg mener med " å snu kondisjonen rundt ". Vennligst ignorere setningen som jeg gjorde opp på stedet for å gi et navn til hva Bayes ' Teorem gjør (det gir uttrykk for $ P (A \ mid B) $ når det gjelder på $ P (B \ mid A) $) siden det forvirrer deg så mye.

Svar

En måte å intuitivt tenke på Bayes «teorem er at når noen av disse er enkle å beregne

$$ P (A∣B) ~~ \ text {or } P (B∣A) $$

vi kan beregne den andre selv om den andre ser ut til å være litt vanskelig i begynnelsen

Tenk på et eksempel, her $$ P (A∣B) $$ er si jeg har et gardin, og jeg fortalte deg at det er et dyr bak gardinet og gitt det er et firbent dyr hva er sannsynligheten for at dyret er hund?

Det er vanskelig å finne en sannsynlighet for det.

Men du kan finne svaret for $$ P (B∣A) $$ Hva er sannsynligheten for et firbent dyr bak gardinen og gi Når det er en hund, er det nå enkelt å beregne at det kan være nesten 1, og du plugger inn disse verdiene i Bayes-teoremet, og du finner svaret på $$ P (A ∣B) $$ det er sannsynligheten for at dyret er en hund som til å begynne med var vanskelig.

Nå er dette bare en forenklet versjon der du intuitivt kan tenke hvorfor omorganisering av formelen kan hjelp oss. Jeg håper dette hjelper.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *