Jeg ved, at Bayes-reglen er afledt af den betingede sandsynlighed. Men hvad er forskellen intuitivt? Ligningen ser den samme ud for mig. Nominatoren er den fælles sandsynlighed og nævneren er sandsynligheden for det givne resultat.
Dette er den betingede sandsynlighed: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $
Dette er Bayes “-reglen: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .
Er ikke “t $ P (B | A) * P (A) $ og $ P (A \ cap B) $ det samme? Når $ A $ og $ B $ er uafhængige, er det ikke nødvendigt at bruge Bayes-reglen, ikke ?
Kommentarer
Svar
OK , nu hvor du har opdateret dit spørgsmål til at inkludere de to formler:
$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {forudsat at} P (B) > 0, \ tag {1} $$ er definition af den betingede sandsynlighed for $ A $ givet at $ B $ opstod. På samme måde $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {forudsat at} P (A) > 0, \ tag {2} $$ er definition af den betingede sandsynlighed for $ B $ i betragtning af at $ A $ opstod. Nu er det rigtigt, at det er en triviel sag at erstatte værdien af $ P (A \ cap B) $ fra $ (2) $ til $ (1) $ for at nå frem til $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~ ~ \ text {forudsat at} P (A), P (B) > 0, \ tag {3} $$ som er Bayes “formel men bemærk at Bayes” s formel forbinder faktisk to forskellige betingede sandsynligheder $ P (A \ mid B) $ og $ P (B \ mid A) $ , og er i det væsentlige en formel for " at dreje konditioneringen omkring ". Pastor Thomas Bayes henviste til dette med hensyn til " omvendt sandsynlighed " og selv i dag er der kraftig debat om, hvorvidt statistisk slutning skal være baseret på $ P (B \ mid A) $ eller den omvendte sandsynlighed (kaldet a posteriori eller posterior sandsynlighed).
Det er utvivlsomt lige så gal til dig, som det var for mig, da jeg først opdagede, at Bayes formel bare var en triviel erstatning af $ (2) $ $ (1) $ . Hvis du er blevet født for 250 år siden, dig (Bemærk: OP maskerede under brugernavn AlphaBetaGamma, da jeg skrev dette svar, men har siden ændret sit brugernavn) kunne have foretaget en udskiftning, og så ville folk i dag tale om AlphaBetaGamma-formlen og AlphaBetaGammian-kætteriet og den Naive AlphaBetaGamma-metode $ ^ * $ i stedet for at påberåbe sig Ba ja “navn overalt.Så lad mig trøste dig med dit tab af berømmelse ved at påpege en anden version af Bayes “formel. Loven om total sandsynlighed siger, at $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ og ved hjælp af dette kan vi skrive $ (3) $ som
$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ eller mere generelt som $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ hvor den bageste sandsynlighed for en mulig " forårsager " $ A_i $ af en " datum " $ B $ er relateret til $ P ( B \ mid A_i) $ , sandsynligheden for observation $ B $ når $ A_i $ er den sande hypotese og $ P (A_i) $ , den forudgående sandsynlighed (rædsler!) for hypotesen $ A_i $ .
$ ^ * $ Der er et berømt papir R. Alpher, H. Bethe og G. Gamow, " Oprindelsen af kemiske elementer ", Physical Review, 1. april 1948, der almindeligvis kaldes $ \ alpha \ beta \ gamma $ papir .
Kommentarer
- Hej Hr. forklar hvad du mener med ' drejning af konditionering '?
- @Siddhant Går fra $ P (A \ midt B) $ til $ P (B \ mid A) $ er hvad jeg mener med " at dreje konditioneringen rundt ". Ignorer venligst sætningen, som jeg lavede på stedet for at give et navn til, hvad Bayes ' Sætning gør (det giver et udtryk for $ P (A \ mid B) $ udtrykt på $ P (B \ mid A) $) da det forvirrer dig så meget.
Svar
En måde at intuitivt tænke på Bayes “sætning er, at når en af disse er let at beregne
$$ P (A∣B) ~~ \ text {eller } P (B∣A) $$
vi kan beregne den anden, selvom den anden synes at være lidt hård i starten
Overvej et eksempel her $$ P (A∣B) $$ er sige, at jeg har et gardin, og jeg fortalte dig, at der er et dyr bag gardinet, og da det er et firbenet dyr, hvad er sandsynligheden for, at dyret er hund?
Det er svært at finde sandsynligheden for det.
Men du kan finde svaret til $$ P (B∣A) $$ Hvad er sandsynligheden for et firbenet dyr bag gardinet og gi hvis det er en hund, er det nu let at beregne, at det kan være næsten 1, og du tilslutter disse værdier i bayes sætningen, og du finder svaret på $$ P (A ∣B) $$ det er sandsynligheden for, at dyret er en hund, som i første omgang var hård.
Nu er dette bare en alt for forenklet version, hvor du intuitivt kan tænke, hvorfor omarrangering af formlen kunne Hjælp os. Jeg håber, det hjælper.
A
givetB
. Semantisk siger jeg ' der ' er altid et behov for at bruge Bayes ' regel , men nårA
ogB
er uafhængige, kan reglen reduceres til en meget enklere form.