różnica między prawdopodobieństwem warunkowym a regułą Bayesa

Wiem, że reguła Bayesa jest wyprowadzana z prawdopodobieństwa warunkowego. Ale intuicyjnie, jaka jest różnica? Dla mnie równanie wygląda tak samo. Licznik to prawdopodobieństwo łączne, a mianownik to prawdopodobieństwo danego wyniku.

To jest prawdopodobieństwo warunkowe: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

To jest reguła Bayesa: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Isn „t $ P (B | A) * P (A) $ i $ P (A \ cap B) $ to samo? Gdy $ A $ i $ B $ są niezależne, nie ma potrzeby stosowania reguły Bayesa, prawda ?

Komentarze

  • Jeśli dodasz do swojego pytania konkretne równania, które wyglądają tak samo, ktoś mógłby Ci pomóc. Te dwa, które znam, wyglądają zupełnie inaczej, ale w statystykach istnieje długa tradycja. SE mówi, że formuła Bayesa to $$ P (A \ mid B) = \ frac {P (A \ cap B)} { P (B)} $$, które jest właściwie definicją warunkowego prawdopodobieństwa $ A $ przy danym $ B $, a nie w ogóle wzoru Bayesa.
  • @DilipSarwate, zaktualizowałem moje pytanie.
  • Do ostatniego pytania: tak, to jest to samo! To nie ' t oznacza, że zasada Bayesa ' nie jest ' użyteczną formułą. Wzór na prawdopodobieństwo warunkowe nie ' nie daje nam prawdopodobieństwa A przy danych B. Semantycznie rzecz biorąc, ' d mówię, że ' zawsze muszę używać reguły Bayesa ' , ale kiedy A i B są niezależne, regułę można zredukować do znacznie prostszej formy.
  • Rozumiem Reguła Bayesa jest przydatna. Biorąc pod uwagę, że A i B nie są niezależne, jaka jest różnica funkcji prawdopodobieństwa warunkowego i reguły Bayesa, jeśli liczniki są w zasadzie takie same (popraw mnie, jeśli się mylę)?
  • Moja odpowiedź tutaj przedstawia inny pogląd na zasadniczo ten problem.

Odpowiedź

OK , teraz, gdy zaktualizowałeś swoje pytanie tak, aby zawierało dwie formuły:

$$ P (A \ mid B) = \ frac {P (A \ cap B) )} {P (B)} ~~ \ text {pod warunkiem, że} P (B) > 0, \ tag {1} $$ to definicja warunkowego prawdopodobieństwa $ A $ , biorąc pod uwagę, że $ B $ . Podobnie $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {pod warunkiem, że} P (A) > 0, \ tag {2} $$ to definicja warunkowego prawdopodobieństwa $ B $ , biorąc pod uwagę, że $ A $ . Teraz prawdą jest, że zastąpienie wartości $ P (A \ cap B) $ z jest trywialną sprawą $ (2) $ do $ (1) $ , aby dotrzeć do $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {pod warunkiem, że} P (A), P (B) > 0, \ tag {3} $$ , czyli Bayes „formuła , ale zwróć uwagę, że Bayes” s formuła w rzeczywistości łączy dwa różne prawdopodobieństwa warunkowe $ P (A \ mid B) $ i $ P (B \ mid A) $ i jest zasadniczo wzorem na " przekształcanie warunkowania wokół ". Wielebny Thomas Bayes odniósł się do tego w kategoriach " prawdopodobieństwa odwrotnego " i nawet dzisiaj toczy się ożywiona debata, czy wnioskowanie statystyczne powinno opierać się na $ P (B \ mid A) $ lub prawdopodobieństwie odwrotnym (zwanym a posteriori lub późniejszym prawdopodobieństwem).

Jest to dla ciebie bez wątpienia równie irytujące, jak dla mnie, kiedy po raz pierwszy odkryłem, że formuła Bayesa była tylko trywialnym zastąpieniem $ (2) $ na $ (1) $ . Być może, jeśli urodziłeś się 250 lat temu, ty (Uwaga: OP zamaskowany pod nazwą użytkownika AlphaBetaGamma, kiedy pisałem ta odpowiedź, ale od tego czasu zmienił swoją nazwę użytkownika) mógł dokonać zamiany, a wtedy ludzie rozmawialiby dziś o formule AlphaBetaGamma i herezji AlphaBetaGammian oraz naiwnej metodzie AlphaBetaGamma $ ^ * $ zamiast wywoływać Ba tak ”nazwa wszędzie.Pozwól mi więc pocieszyć Cię utratą sławy, wskazując inną wersję wzoru Bayesa ”. Prawo całkowitego prawdopodobieństwa mówi, że $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ i używając tego możemy napisać $ (3) $ as

$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ lub bardziej ogólnie jako $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1) ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ , gdzie późniejsze prawdopodobieństwo możliwego " przyczyna " $ A_i $ z " datum " $ B $ jest powiązane z $ P ( B \ mid A_i) $ , prawdopodobieństwo obserwacji $ B $ , gdy $ A_i $ jest prawdziwą hipotezą, a $ P (A_i) $ , wcześniejsze prawdopodobieństwo (okropności!) hipotezy $ A_i $ .


$ ^ * $ Jest słynna gazeta R. Alpher, H. Bethe i G. Gamow, " Pochodzenie pierwiastków chemicznych ", Physical Review, 1 kwietnia 1948 r., który jest powszechnie określany jako $ \ alpha \ beta \ gamma $ papier .

Komentarze

  • Witaj, czy mógłbyś wyjaśnij, co masz na myśli, ' obracając warunkowanie wokół '?
  • @Siddhant Idąc od $ P (A \ mid B) $ P (B \ mid A) $ jest tym, co mam na myśli, " zmieniając warunkowanie wokół ". Proszę zignorować frazę, którą wymyśliłem na miejscu, aby nadać nazwę temu, co Bayes ' Twierdzenie (daje wyrażenie na $ P (A \ mid B) $ w kategoriach z $ P (B \ mid A) $), ponieważ bardzo cię to dezorientuje.

Odpowiedź

Jedna sposobem intuicyjnego myślenia o Bayesie „jest twierdzenie, że jeśli którykolwiek z nich jest łatwy do obliczenia

$$ P (A∣B) ~~ \ text {lub } P (B∣A) $$

możemy obliczyć drugą, nawet jeśli druga wydaje się na początku nieco trudna

Rozważmy przykład, tutaj $$ P (A∣B) $$ to powiedz, że mam zasłonę i powiedziałem ci, że za zasłoną jest zwierzę i biorąc pod uwagę, że jest to czworonożne zwierzę, co czy prawdopodobieństwo, że to zwierzę jest psem?

Trudno jest znaleźć na to prawdopodobieństwo.

Ale możesz znaleźć odpowiedź na $$ P (B∣A) $$ Jakie jest prawdopodobieństwo czworonożnego zwierzęcia za zasłoną i gi gdyby to był pies, teraz łatwo jest obliczyć, że może to być prawie 1 i wstawiasz te wartości do twierdzenia Bayesa, a znajdziesz odpowiedź na $$ P (A ∣B) $$ to jest prawdopodobieństwo, że zwierzę jest psem, co na początku było trudne.

Teraz jest to po prostu zbyt uproszczona wersja, w której możesz intuicyjnie pomyśleć, dlaczego zmiana wzoru mogłaby Pomóż nam. Mam nadzieję, że to pomoże.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *