Știu că regula Bayes este derivată din probabilitatea condițională. Dar, intuitiv, care este diferența? Ecuația mi se pare la fel. Nominalizatorul este probabilitatea comună, iar numitorul este probabilitatea rezultatului dat.
Aceasta este probabilitatea condițională: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $
Aceasta este regula „Bayes”: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .
Isn „t $ P (B | A) * P (A) $ și $ P (A \ cap B) $ la fel? Când $ A $ și $ B $ sunt independenți, nu este necesar să utilizați regula Bayes, corect ?
Comentarii
Răspuns
OK , acum că v-ați actualizat întrebarea pentru a include cele două formule:
$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {cu condiția ca} P (B) > 0, \ tag {1} $$ este definiție a probabilității condiționate de $ A $ având în vedere că $ B $ a apărut. În mod similar, $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {cu condiția ca} P (A) > 0, \ tag {2} $$ este definiție a probabilității condiționate de $ B $ având în vedere că $ A $ a apărut. Acum, este adevărat că este o chestiune banală să substituiți valoarea $ P (A \ cap B) $ din $ (2) $ în $ (1) $ pentru a ajunge la $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {cu condiția ca} P (A), P (B) > 0, \ tag {3} $$ care este Bayes „formula dar observați că Bayes formula conectează de fapt două probabilități condiționale diferite $ P (A \ mid B) $ și $ P (B \ mid A) $ și este în esență o formulă pentru " transformarea condiționării în jurul ". Reverendul Thomas Bayes s-a referit la acest lucru în termeni de " probabilitate inversă " și chiar și astăzi, există o dezbatere intensă cu privire la dacă inferența statistică ar trebui să se bazeze pe $ P (B \ mid A) $ sau probabilitatea inversă (numită a posteriori sau probabilitatea posterioară).
Este, fără îndoială, atât de galant pentru tine, cât și pentru mine, când am descoperit pentru prima dată că formula Bayes era doar o substituție banală a $ (2) $ $ (1) $ . Poate dacă v-ați născut acum 250 de ani, voi (Notă: OP-ul a fost mascat sub numele de utilizator AlphaBetaGamma când am scris acest răspuns, dar de atunci și-a schimbat numele de utilizator) ar fi putut face înlocuirea și atunci oamenii de astăzi vor vorbi despre formula AlphaBetaGamma și erezia AlphaBetaGammian și metoda Naive AlphaBetaGamma $ ^ * $ în loc să invocăm Ba da „nume peste tot.Așadar, permiteți-mi să vă consolez cu privire la pierderea faimei dvs., arătând o altă versiune a formulei Bayes. Legea probabilității totale spune că $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ și folosind aceasta, putem scrie $ (3) $ ca
$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ sau mai general ca $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ unde probabilitatea posterioară a unei posibile " cauza " $ A_i $ a unui " datum " $ B $ este legat de $ P ( B \ mid A_i) $ , probabilitatea observării $ B $ când $ A_i $ este adevărata ipoteză și $ P (A_i) $ , probabilitatea anterioară (groazele!) a ipotezei $ A_i $ .
$ ^ * $ Există există o faimoasă lucrare R. Alpher, H. Bethe și G. Gamow, " Originea of Chemical Elements ", Physical Review, 1 aprilie 1948, denumit în mod obișnuit $ \ alpha \ beta \ gamma $ hârtie .
Comentarii
- Bună ziua, domnule, ați putea să vă rog explică ce vrei să spui prin ' transformarea condiționării în jurul '?
- @Siddhant Merge de la $ P (A \ mijloc B) $ la $ P (B \ mid A) $ este ceea ce vreau să spun prin " transformând condiționarea în jurul ". Vă rugăm să ignorați expresia pe care am compus-o pe loc pentru a da un nume ceea ce face Bayes ' teorema (oferă o expresie pentru $ P (A \ mid B) $ în termeni de $ P (B \ mid A) $) deoarece vă încurcă atât de mult.
Răspuns
One mod de a gândi intuitiv „teorema lui Bayes este că atunci când oricare dintre acestea este ușor de calculat
$$ P (A∣B) ~~ \ text {sau } P (B∣A) $$
îl putem calcula pe celălalt chiar dacă celălalt pare a fi puțin greu la început
Luați în considerare un exemplu, Aici $$ P (A∣B) $$ se spune că am o perdea și ți-am spus că există un animal în spatele perdelei și dat fiind că este un animal cu patru picioare ce este probabilitatea ca acel animal să fie câine?
Este greu să găsești o probabilitate pentru asta.
Dar poți găsi răspunsul pentru $$ P (B∣A) $$ Care este probabilitatea unui animal cu patru picioare în spatele cortinei și venind că este un câine, acum este ușor de calculat, ar putea fi de aproape 1 și introduceți acele valori în teorema bayes și veți găsi răspunsul pentru $$ P (A ∣B) $$ aceasta este probabilitatea ca animalul să fie un câine care la început a fost greu.
Acum aceasta este doar o versiune prea simplificată în care vă puteți gândi intuitiv de ce rearanjarea formulei ar putea ajuta-ne. Sper că acest lucru vă va ajuta.
A
datăB
. Semantic, eu ' spun că există întotdeauna ' nevoia de a utiliza regula Bayes ' , dar cândA
șiB
sunt independente, regula poate fi redusă la o formă mult mai simplă.