Wiem, że reguła Bayesa jest wyprowadzana z prawdopodobieństwa warunkowego. Ale intuicyjnie, jaka jest różnica? Dla mnie równanie wygląda tak samo. Licznik to prawdopodobieństwo łączne, a mianownik to prawdopodobieństwo danego wyniku.
To jest prawdopodobieństwo warunkowe: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $
To jest reguła Bayesa: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .
Isn „t $ P (B | A) * P (A) $ i $ P (A \ cap B) $ to samo? Gdy $ A $ i $ B $ są niezależne, nie ma potrzeby stosowania reguły Bayesa, prawda ?
Komentarze
Odpowiedź
OK , teraz, gdy zaktualizowałeś swoje pytanie tak, aby zawierało dwie formuły:
$$ P (A \ mid B) = \ frac {P (A \ cap B) )} {P (B)} ~~ \ text {pod warunkiem, że} P (B) > 0, \ tag {1} $$ to definicja warunkowego prawdopodobieństwa $ A $ , biorąc pod uwagę, że $ B $ . Podobnie $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {pod warunkiem, że} P (A) > 0, \ tag {2} $$ to definicja warunkowego prawdopodobieństwa $ B $ , biorąc pod uwagę, że $ A $ . Teraz prawdą jest, że zastąpienie wartości $ P (A \ cap B) $ z jest trywialną sprawą $ (2) $ do $ (1) $ , aby dotrzeć do $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {pod warunkiem, że} P (A), P (B) > 0, \ tag {3} $$ , czyli Bayes „formuła , ale zwróć uwagę, że Bayes” s formuła w rzeczywistości łączy dwa różne prawdopodobieństwa warunkowe $ P (A \ mid B) $ i $ P (B \ mid A) $ i jest zasadniczo wzorem na " przekształcanie warunkowania wokół ". Wielebny Thomas Bayes odniósł się do tego w kategoriach " prawdopodobieństwa odwrotnego " i nawet dzisiaj toczy się ożywiona debata, czy wnioskowanie statystyczne powinno opierać się na $ P (B \ mid A) $ lub prawdopodobieństwie odwrotnym (zwanym a posteriori lub późniejszym prawdopodobieństwem).
Jest to dla ciebie bez wątpienia równie irytujące, jak dla mnie, kiedy po raz pierwszy odkryłem, że formuła Bayesa była tylko trywialnym zastąpieniem $ (2) $ na $ (1) $ . Być może, jeśli urodziłeś się 250 lat temu, ty (Uwaga: OP zamaskowany pod nazwą użytkownika AlphaBetaGamma, kiedy pisałem ta odpowiedź, ale od tego czasu zmienił swoją nazwę użytkownika) mógł dokonać zamiany, a wtedy ludzie rozmawialiby dziś o formule AlphaBetaGamma i herezji AlphaBetaGammian oraz naiwnej metodzie AlphaBetaGamma $ ^ * $ zamiast wywoływać Ba tak ”nazwa wszędzie.Pozwól mi więc pocieszyć Cię utratą sławy, wskazując inną wersję wzoru Bayesa ”. Prawo całkowitego prawdopodobieństwa mówi, że $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ i używając tego możemy napisać $ (3) $ as
$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ lub bardziej ogólnie jako $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1) ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ , gdzie późniejsze prawdopodobieństwo możliwego " przyczyna " $ A_i $ z " datum " $ B $ jest powiązane z $ P ( B \ mid A_i) $ , prawdopodobieństwo obserwacji $ B $ , gdy $ A_i $ jest prawdziwą hipotezą, a $ P (A_i) $ , wcześniejsze prawdopodobieństwo (okropności!) hipotezy $ A_i $ .
$ ^ * $ Jest słynna gazeta R. Alpher, H. Bethe i G. Gamow, " Pochodzenie pierwiastków chemicznych ", Physical Review, 1 kwietnia 1948 r., który jest powszechnie określany jako $ \ alpha \ beta \ gamma $ papier .
Komentarze
- Witaj, czy mógłbyś wyjaśnij, co masz na myśli, ' obracając warunkowanie wokół '?
- @Siddhant Idąc od $ P (A \ mid B) $ P (B \ mid A) $ jest tym, co mam na myśli, " zmieniając warunkowanie wokół ". Proszę zignorować frazę, którą wymyśliłem na miejscu, aby nadać nazwę temu, co Bayes ' Twierdzenie (daje wyrażenie na $ P (A \ mid B) $ w kategoriach z $ P (B \ mid A) $), ponieważ bardzo cię to dezorientuje.
Odpowiedź
Jedna sposobem intuicyjnego myślenia o Bayesie „jest twierdzenie, że jeśli którykolwiek z nich jest łatwy do obliczenia
$$ P (A∣B) ~~ \ text {lub } P (B∣A) $$
możemy obliczyć drugą, nawet jeśli druga wydaje się na początku nieco trudna
Rozważmy przykład, tutaj $$ P (A∣B) $$ to powiedz, że mam zasłonę i powiedziałem ci, że za zasłoną jest zwierzę i biorąc pod uwagę, że jest to czworonożne zwierzę, co czy prawdopodobieństwo, że to zwierzę jest psem?
Trudno jest znaleźć na to prawdopodobieństwo.
Ale możesz znaleźć odpowiedź na $$ P (B∣A) $$ Jakie jest prawdopodobieństwo czworonożnego zwierzęcia za zasłoną i gi gdyby to był pies, teraz łatwo jest obliczyć, że może to być prawie 1 i wstawiasz te wartości do twierdzenia Bayesa, a znajdziesz odpowiedź na $$ P (A ∣B) $$ to jest prawdopodobieństwo, że zwierzę jest psem, co na początku było trudne.
Teraz jest to po prostu zbyt uproszczona wersja, w której możesz intuicyjnie pomyśleć, dlaczego zmiana wzoru mogłaby Pomóż nam. Mam nadzieję, że to pomoże.
A
przy danychB
. Semantycznie rzecz biorąc, ' d mówię, że ' zawsze muszę używać reguły Bayesa ' , ale kiedyA
iB
są niezależne, regułę można zredukować do znacznie prostszej formy.