조건부 확률과 베이 즈 규칙의 차이

베이 즈 규칙이 조건부 확률에서 파생된다는 것을 알고 있습니다. 그러나 직관적으로 차이점은 무엇입니까? 방정식은 나에게 똑같이 보입니다. 지명자는 공동 확률이고 분모는 주어진 결과의 확률입니다.

조건부 확률 : $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

이것은 Bayes “규칙 : $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

$ P (B | A) * P (A) $ $ P (A \ cap B) $ 동일합니까? $ A $ $ B $ 가 독립적 인 경우 Bayes 규칙을 사용할 필요가 없습니다. ?

댓글

  • 질문에 똑같이 보이는 특정 방정식을 추가하면 누군가가 도와 줄 수 있습니다. 내가 익숙한 두 가지는 나에게 상당히 다르게 보이지만 stats.SE에는 Bayes 공식이 $$ P (A \ mid B) = \ frac {P (A \ cap B)} {라고 말하는 오랜 전통이 있습니다. P (B)} $$는 Bayes 공식이 아니라 $ B $가 주어진 $ A $의 조건부 확률에 대한 정의입니다.
  • @DilipSarwate, 질문을 업데이트했습니다.
  • li>

  • 마지막 질문에 : 예 이것들은 동일합니다! 그러나 이는 ' 베이 즈 ' 규칙이 ' 유용한 공식이 아님을 의미하지는 않습니다. 조건부 확률 공식은 ' B가 주어진 A의 확률을 제공하지 않습니다. 의미 상 ' ' 항상 Bayes를 사용해야합니다. ' 규칙 하지만 AB가 독립적 인 경우 규칙을 훨씬 더 간단한 형식으로 줄일 수 있습니다.
  • 이해합니다. Bayes 규칙이 유용합니다. A와 B가 독립적이지 않은 경우, 지명자가 기본적으로 동일하다면 조건부 확률 함수와 Bayes 규칙의 차이는 무엇입니까 (내가 틀리면 수정)?
  • 내 대답 여기 는 본질적으로이 문제에 대한 또 다른보기를 제공합니다.

답변

확인 , 이제 두 가지 공식을 포함하도록 질문을 업데이트했습니다.

$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {provided that} P (B) > 0, \ tag {1} $$ 는 iv id pan class =에서 $ A $ 의 조건부 확률 = “5db063a4a1″>

정의 “math-container”> $ B $ 가 발생했습니다. 마찬가지로 $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {provided that} P (A) > 0, \ tag {2} $$ 는 iv id = pan class = “가 주어진 경우 $ B $ 의 조건부 확률”5db063a4a1 “>

정의 math-container “> $ A $ 가 발생했습니다. 이제 에서 $ P (A \ cap B) $ 값을 대체하는 것은 사소한 문제라는 것은 사실입니다. $ (2) $ $ (1) $ 에 넣고 $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {제공됨} P (A), P (B) > 0, \ tag {3} $$ Bayes “수식 이지만 Bayes s 수식은 실제로 $ P (A \ mid B) $ $ P 두 개의 다른 조건부 확률을 연결합니다. (B \ mid A) $ 이며 기본적으로 " 컨디셔닝을 전환하기위한 공식 "입니다. Thomas Bayes 목사는 이것을 " 역 확률 " 측면에서 언급했으며 오늘날에도 통계적 추론이 필요한지 여부에 대해 활발한 논쟁이 있습니다. $ P (B \ mid A) $ 또는 역 확률 ( 사후 또는 사후 확률이라고 함)을 기반으로합니다.

확실히 Bayes “공식이 $ (2) $ $ (1) $ . 아마도 250 년 전에 태어나 셨다면 당신 일 것입니다 (참고 : 내가 쓸 때 사용자 이름 AlphaBetaGamma로 위장한 OP 이 답변은 이후 사용자 이름을 변경했습니다.)는 대체 할 수 있으며 오늘날 사람들은 AlphaBetaGamma 공식과 AlphaBetaGammian 이단 및 Naive AlphaBetaGamma 방법에 대해 이야기 할 것입니다. $ ^ * $ 예 “이름은 어디에나 있습니다.따라서 다른 버전의 Bayes “공식을 지적하여 명성을 잃은 것을 위로하겠습니다. 총 확률의 법칙 에 따르면 $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ 그리고 이것을 사용하여 $ (3) $ as

$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ 또는보다 일반적으로 $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ 여기서 가능한

원인 " $ A_i $ 의 " datum " $ B $ $ P ( B \ mid A_i) $ , 관측 가능성 $ B $ $ A_i $ 가 진정한 가설이고 $ P (A_i) $ , 가설 $ A_i $ 의 사전 확률 (공포!).


$ ^ * $ 유명한 논문 인 R. Alpher, H. Bethe 및 G. Gamow가 있습니다 , " The Origin of Chemical Elements ", Physical Review, 1948 년 4 월 1 일, 일반적으로 $ \ alpha \ beta \ gamma $ paper .

댓글

  • 안녕하세요. ' 컨디셔닝을 바꾸는 것의 의미를 설명하십시오 '?
  • @Siddhant $ P (A \ mid B) $ ~ $ P (B \ mid A) $는 " 컨디셔닝을 중심으로 " 의미합니다. Bayes ' 정리가하는 일에 이름을 부여하기 위해 그 자리에서 작성한 문구를 무시하십시오 ($ P (A \ mid B) $에 대한 표현을 용어로 제공) $ P (B \ mid A) $) 중 너무 혼란 스럽기 때문입니다.

답변

1 Bayes를 직관적으로 생각하는 방법 “정리는 이들 중 어느 하나라도 쉽게 계산할 수있을 때

$$ P (A∣B) ~~ \ text {또는 } P (B∣A) $$

처음에는 다른 하나가 약간 어려워 보이지만 다른 하나를 계산할 수 있습니다.

예를 들어, 여기 $$ P (A∣B) $$ 는 커튼이 있고 커튼 뒤에 동물이 있다고 말했고 다리가 네 개 달린 동물이 그 동물이 개일 확률은 무엇입니까?

그 확률을 찾기가 어렵습니다.

하지만 에 대한 답을 찾을 수 있습니다. $$ P (B∣A) $$ 커튼 뒤에 네발 달린 동물이있을 확률은 얼마입니까? 개이므로 이제는 거의 1이 될 수 있다는 것을 쉽게 계산할 수 있으며 베이 정리에이 값을 연결하면 $$ P (A ∣B) $$ 는 동물이 처음에는 힘들었던 개일 확률입니다.

이제 공식을 재배치하면 왜 직관적으로 생각할 수 있는지 직관적으로 생각할 수있는 지나치게 단순화 된 버전입니다. 우리를 도와 줘. 도움이 되었기를 바랍니다.

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다