forskel mellem betinget sandsynlighed og bayes-regel

Jeg ved, at Bayes-reglen er afledt af den betingede sandsynlighed. Men hvad er forskellen intuitivt? Ligningen ser den samme ud for mig. Nominatoren er den fælles sandsynlighed og nævneren er sandsynligheden for det givne resultat.

Dette er den betingede sandsynlighed: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

Dette er Bayes “-reglen: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Er ikke “t $ P (B | A) * P (A) $ og $ P (A \ cap B) $ det samme? Når $ A $ og $ B $ er uafhængige, er det ikke nødvendigt at bruge Bayes-reglen, ikke ?

Kommentarer

  • Hvis du tilføjer de specifikke ligninger, der ligner dig til dit spørgsmål, kan nogen muligvis hjælpe dig. De to, som jeg er bekendt med, ser meget anderledes ud for mig, men der er lang tradition for statistik. SE for at sige, at Bayes-formlen er $$ P (A \ mid B) = \ frac {P (A \ cap B)} { P (B)} $$ som faktisk er definitionen af den betingede sandsynlighed for $ A $ givet $ B $ og slet ikke Bayes-formlen.
  • @DilipSarwate, jeg har opdateret mit spørgsmål.
  • Til dit sidste spørgsmål: ja disse er de samme! Det betyder ikke ' t Bayes ' regel er ikke ' t en nyttig formel. Den betingede sandsynlighedsformel giver os ikke ' sandsynligheden for A givet B. Semantisk siger jeg ' der ' er altid et behov for at bruge Bayes ' regel , men når A og B er uafhængige, kan reglen reduceres til en meget enklere form.
  • Jeg forstår Bayes regel er nyttig. Når A og B ikke er uafhængige, hvad er forskellen på betinget sandsynlighedsfunktion og Bayes, hvis nominatorerne stort set er de samme (korriger mig, hvis jeg tager fejl)?
  • Mit svar her giver en anden visning af dette spørgsmål.

Svar

OK , nu hvor du har opdateret dit spørgsmål til at inkludere de to formler:

$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {forudsat at} P (B) > 0, \ tag {1} $$ er definition af den betingede sandsynlighed for $ A $ givet at $ B $ opstod. På samme måde $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {forudsat at} P (A) > 0, \ tag {2} $$ er definition af den betingede sandsynlighed for $ B $ i betragtning af at $ A $ opstod. Nu er det rigtigt, at det er en triviel sag at erstatte værdien af $ P (A \ cap B) $ fra $ (2) $ til $ (1) $ for at nå frem til $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~ ~ \ text {forudsat at} P (A), P (B) > 0, \ tag {3} $$ som er Bayes “formel men bemærk at Bayes” s formel forbinder faktisk to forskellige betingede sandsynligheder $ P (A \ mid B) $ og $ P (B \ mid A) $ , og er i det væsentlige en formel for " at dreje konditioneringen omkring ". Pastor Thomas Bayes henviste til dette med hensyn til " omvendt sandsynlighed " og selv i dag er der kraftig debat om, hvorvidt statistisk slutning skal være baseret på $ P (B \ mid A) $ eller den omvendte sandsynlighed (kaldet a posteriori eller posterior sandsynlighed).

Det er utvivlsomt lige så gal til dig, som det var for mig, da jeg først opdagede, at Bayes formel bare var en triviel erstatning af $ (2) $ $ (1) $ . Hvis du er blevet født for 250 år siden, dig (Bemærk: OP maskerede under brugernavn AlphaBetaGamma, da jeg skrev dette svar, men har siden ændret sit brugernavn) kunne have foretaget en udskiftning, og så ville folk i dag tale om AlphaBetaGamma-formlen og AlphaBetaGammian-kætteriet og den Naive AlphaBetaGamma-metode $ ^ * $ i stedet for at påberåbe sig Ba ja “navn overalt.Så lad mig trøste dig med dit tab af berømmelse ved at påpege en anden version af Bayes “formel. Loven om total sandsynlighed siger, at $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ og ved hjælp af dette kan vi skrive $ (3) $ som

$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ eller mere generelt som $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ hvor den bageste sandsynlighed for en mulig " forårsager " $ A_i $ af en " datum " $ B $ er relateret til $ P ( B \ mid A_i) $ , sandsynligheden for observation $ B $ når $ A_i $ er den sande hypotese og $ P (A_i) $ , den forudgående sandsynlighed (rædsler!) for hypotesen $ A_i $ .


$ ^ * $ Der er et berømt papir R. Alpher, H. Bethe og G. Gamow, " Oprindelsen af kemiske elementer ", Physical Review, 1. april 1948, der almindeligvis kaldes $ \ alpha \ beta \ gamma $ papir .

Kommentarer

  • Hej Hr. forklar hvad du mener med ' drejning af konditionering '?
  • @Siddhant Går fra $ P (A \ midt B) $ til $ P (B \ mid A) $ er hvad jeg mener med " at dreje konditioneringen rundt ". Ignorer venligst sætningen, som jeg lavede på stedet for at give et navn til, hvad Bayes ' Sætning gør (det giver et udtryk for $ P (A \ mid B) $ udtrykt på $ P (B \ mid A) $) da det forvirrer dig så meget.

Svar

En måde at intuitivt tænke på Bayes “sætning er, at når en af disse er let at beregne

$$ P (A∣B) ~~ \ text {eller } P (B∣A) $$

vi kan beregne den anden, selvom den anden synes at være lidt hård i starten

Overvej et eksempel her $$ P (A∣B) $$ er sige, at jeg har et gardin, og jeg fortalte dig, at der er et dyr bag gardinet, og da det er et firbenet dyr, hvad er sandsynligheden for, at dyret er hund?

Det er svært at finde sandsynligheden for det.

Men du kan finde svaret til $$ P (B∣A) $$ Hvad er sandsynligheden for et firbenet dyr bag gardinet og gi hvis det er en hund, er det nu let at beregne, at det kan være næsten 1, og du tilslutter disse værdier i bayes sætningen, og du finder svaret på $$ P (A ∣B) $$ det er sandsynligheden for, at dyret er en hund, som i første omgang var hård.

Nu er dette bare en alt for forenklet version, hvor du intuitivt kan tænke, hvorfor omarrangering af formlen kunne Hjælp os. Jeg håber, det hjælper.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *