skillnad mellan villkorlig sannolikhet och Bayes-regel

Jag vet att Bayes-regeln härrör från den villkorliga sannolikheten. Men intuitivt, vad är skillnaden? Ekvationen ser likadan ut för mig. Nominatorn är den gemensamma sannolikheten och nämnaren är sannolikheten för det givna resultatet.

Detta är den villkorliga sannolikheten: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

Detta är Bayes-regeln: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Är inte ”t $ P (B | A) * P (A) $ och $ P (A \ cap B) $ samma? När $ A $ och $ B $ är oberoende behöver du inte använda Bayes-regeln, eller hur ?

Kommentarer

  • Om du skulle lägga till de specifika ekvationerna som ser likadana ut i din fråga kan någon kanske hjälpa dig. De två som jag känner till ser ganska annorlunda ut för mig men det finns en lång tradition på statistik. SE att säga att Bayes formel är $$ P (A \ mid B) = \ frac {P (A \ cap B)} { P (B)} $$ som egentligen är definitionen av den villkorliga sannolikheten för $ A $ givet $ B $, och inte Bayes-formeln alls.
  • @DilipSarwate, jag har uppdaterat min fråga.
  • Till din sista fråga: ja dessa är desamma! Det betyder inte ' t Bayes ' regel är dock inte ' t en användbar formel. Den villkorliga sannolikhetsformeln ' t ger oss sannolikheten för A givet B. Semantiskt säger jag ' d där ' är alltid ett behov av att använda Bayes ' regel , men när A och B är oberoende kan regeln reduceras till en mycket enklare form.
  • Jag förstår Bayes regel är användbar. Med tanke på att A och B inte är oberoende, vilken skillnad mellan villkorlig sannolikhetsfunktion och Bayes reglerar om nominatorerna i princip är desamma (rätta mig om jag har fel)?
  • Mitt svar här ger en annan bild av i huvudsak denna fråga.

Svar

OK nu när du har uppdaterat din fråga för att inkludera de två formlerna:

$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {förutsatt att} P (B) > 0, \ tag {1} $$ är definition av den villkorliga sannolikheten för $ A $ med tanke på att $ B $ inträffade. På samma sätt $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {förutsatt att} P (A) > 0, \ tag {2} $$ är definition av den villkorliga sannolikheten för $ B $ med tanke på att $ A $ inträffade. Nu är det sant att det är en trivial fråga att ersätta värdet av $ P (A \ cap B) $ från $ (2) $ till $ (1) $ för att komma fram till $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~ ~ \ text {förutsatt att} P (A), P (B) > 0, \ tag {3} $$ vilket är Bayes ”formel men märker att Bayes” s formel ansluter faktiskt två olika villkorliga sannolikheter $ P (A \ mid B) $ och $ P (B \ mid A) $ , och är i huvudsak en formel för " som vänder konditioneringen till ". Pastorn Thomas Bayes hänvisade till detta i termer av " invers sannolikhet " och även idag finns det en kraftig debatt om statistisk slutsats bör baseras på $ P (B \ mid A) $ eller den omvända sannolikheten (kallas a posteriori eller posterior sannolikhet).

Det är utan tvekan lika galet för dig som för mig när jag först upptäckte att Bayes ”formel bara var en triviell ersättning av $ (2) $ till $ (1) $ . Kanske om du har fötts för 250 år sedan, du (Obs! OP-maskerad under användarnamnet AlphaBetaGamma när jag skrev detta svar men har sedan ändrat sitt användarnamn) kunde ha bytt ut och då skulle människor idag prata om AlphaBetaGamma-formeln och AlphaBetaGammian kätteri och Naive AlphaBetaGamma-metoden $ ^ * $ istället för att åberopa Ba ja ”namn överallt.Så låt mig trösta dig med din förlust av berömmelse genom att peka på en annan version av Bayes ”formel. Lagen om total sannolikhet säger att $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ och med detta kan vi skriva $ (3) $ som

$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ eller mer allmänt som $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ där den bakre sannolikheten för en möjlig " orsaka " $ A_i $ av en " datum " $ B $ är relaterat till $ P ( B \ mid A_i) $ , sannolikheten för observation $ B $ när $ A_i $ är den sanna hypotesen och $ P (A_i) $ , den tidigare sannolikheten (fasor!) för hypotesen $ A_i $ .


$ ^ * $ Det finns en känd tidning R. Alpher, H. Bethe och G. Gamow, " Ursprunget av kemiska element ", Physical Review, 1 april 1948, som vanligtvis kallas $ \ alpha \ beta \ gamma $ papper .

Kommentarer

  • Hej herr, kan du snälla förklara vad du menar med ' vända konditioneringen '?
  • @Siddhant Går från $ P (A \ mitten B) $ till $ P (B \ mid A) $ är vad jag menar med " vrider konditioneringen ". Vänligen ignorera frasen som jag gjorde på plats för att ge ett namn till vad Bayes ' Sats gör (det ger ett uttryck för $ P (A \ mid B) $ i termer på $ P (B \ mid A) $) eftersom det förvirrar dig så mycket.

Svar

En sätt att intuitivt tänka på Bayes ”sats är att när någon av dessa är lätt att beräkna

$$ P (A∣B) ~~ \ text {eller } P (B∣A) $$

vi kan beräkna den andra även om den andra verkar vara lite hård först

Tänk på ett exempel här $$ P (A∣B) $$ är att jag har en gardin och jag sa till dig att det finns ett djur bakom gardinen och med tanke på att det är ett fyrbent djur vad är sannolikheten för att djuret är hund?

Det är svårt att hitta en sannolikhet för det.

Men du kan hitta svaret för $$ P (B∣A) $$ Vad är sannolikheten för ett fyrbent djur bak gardinen och gi ven att det är en hund, nu är det lätt att beräkna att det kan vara nästan 1 och du kopplar in dessa värden i bayes-teorem och du hittar svaret för $$ P (A ∣B) $$ det är sannolikheten för att djuret är en hund som till en början var svår.

Nu är det här bara en överförenklad version där du intuitivt kan tänka varför att ordna om formeln kan hjälp oss. Jag hoppas att det hjälper.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *