diferença entre probabilidade condicional e regra de bayes

Eu sei que a regra de Bayes é derivada da probabilidade condicional. Mas intuitivamente, qual é a diferença? A equação parece a mesma para mim. O nominador é a probabilidade conjunta e o denominador é a probabilidade do resultado dado.

Esta é a probabilidade condicional: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

Esta é a “regra de Bayes: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Isn “t $ P (B | A) * P (A) $ e $ P (A \ cap B) $ iguais? Quando $ A $ e $ B $ são independentes, não há necessidade de usar a regra de Bayes, certo ?

Comentários

  • Se você adicionasse à sua pergunta as equações específicas que parecem iguais para você, alguém poderia ajudá-lo. As duas que conheço parecem bastante diferentes para mim, mas há uma longa tradição em stats.SE dizer que a fórmula de Bayes é $$ P (A \ mid B) = \ frac {P (A \ cap B)} { P (B)} $$ que é na verdade a definição da probabilidade condicional de $ A $ dado $ B $, e não a fórmula de Bayes.
  • @DilipSarwate, atualizei minha pergunta.
  • Para sua pergunta final: sim, são iguais! Isso não ' t significa Bayes ' regra não é ' uma fórmula útil, no entanto. A fórmula de probabilidade condicional não ' nos dá a probabilidade de A dado B. Semanticamente, eu ' d diria que ' é sempre necessário usar a regra de Bayes ' , mas quando A e B são independentes, a regra pode ser reduzida a uma forma muito mais simples.
  • Eu entendo A regra de Bayes é útil. Dado que A e B não são independentes, qual a diferença da função de probabilidade condicional e da regra de Bayes se os nominadores forem basicamente os mesmos (corrija-me se eu estiver errado)?
  • Minha resposta aqui fornece outra visão essencialmente deste problema.

Resposta

OK , agora que você atualizou sua pergunta para incluir as duas fórmulas:

$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {desde que} P (B) > 0, \ tag {1} $$ seja o definição da probabilidade condicional de $ A $ dado que $ B $ ocorreu. Da mesma forma, $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {desde que} P (A) > 0, \ tag {2} $$ seja o definição da probabilidade condicional de $ B $ , dado que $ A $ ocorreu. Agora, é verdade que é uma questão trivial substituir o valor de $ P (A \ cap B) $ de $ (2) $ em $ (1) $ para chegar a $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {desde que} P (A), P (B) > 0, \ tag {3} $$ que é fórmula de Bayes “, mas observe que Bayes” s a fórmula realmente conecta duas diferentes probabilidades condicionais $ P (A \ mid B) $ e $ P (B \ mid A) $ , e é essencialmente uma fórmula para " virar o condicionamento ". O reverendo Thomas Bayes referiu-se a isso em termos de " probabilidade inversa " e ainda hoje há um debate vigoroso sobre se a inferência estatística deveria ser baseado em $ P (B \ mid A) $ ou na probabilidade inversa (chamada de a posteriori ou probabilidade posterior).

É sem dúvida tão irritante para você quanto para mim quando descobri que a fórmula de Bayes “era apenas uma substituição trivial de $ (2) $ em $ (1) $ . Talvez se você nasceu há 250 anos, você (Observação: o OP mascarado sob o nome de usuário AlphaBetaGamma quando escrevi esta resposta, mas desde então mudou seu nome de usuário) poderia ter feito a substituição e então as pessoas hoje estariam falando sobre a fórmula AlphaBetaGamma e a heresia AlphaBetaGammian e o método Naive AlphaBetaGamma $ ^ * $ em vez de invocar Ba sim “nome em todos os lugares.Portanto, deixe-me consolá-lo com sua perda de fama apontando uma versão diferente da fórmula de Bayes “. A Lei da Probabilidade Total diz que $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ e usando isso, podemos escrever $ (3) $ as

$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ ou mais geralmente como $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ onde a probabilidade posterior de um possível " causa " $ A_i $ de um " datum " $ B $ está relacionado a $ P ( B \ mid A_i) $ , a probabilidade da observação $ B $ quando $ A_i $ for a hipótese verdadeira e $ P (A_i) $ , a probabilidade anterior (horrores!) da hipótese $ A_i $ .


$ ^ * $ um famoso jornal R. Alpher, H. Bethe e G. Gamow, " The Origin of Chemical Elements ", Physical Review, 1 de abril de 1948, comumente referido como o papel $ \ alpha \ beta \ gamma $ .

Comentários

  • Olá, senhor, poderia, por favor explique o que você quer dizer com ' invertendo o condicionamento '?
  • @Siddhant saindo de $ P (A \ mid B) $ para $ P (B \ mid A) $ é o que quero dizer com " reverter o condicionamento ". Por favor, ignore a frase, que eu inventei no local para dar um nome ao que Bayes ' Teorema faz (dá uma expressão para $ P (A \ mid B) $ em termos de $ P (B \ mid A) $), pois isso o confunde muito.

Resposta

Um maneira de pensar intuitivamente no teorema de Bayes é que quando qualquer um desses for fácil de calcular

$$ P (A∣B) ~~ \ text {ou } P (B∣A) $$

podemos calcular o outro, embora o outro pareça um pouco difícil no início

Considere um exemplo, aqui $$ P (A∣B) $$ é dizer que tenho uma cortina e eu disse que há um animal atrás da cortina e, dado que é um animal de quatro patas, é a probabilidade desse animal ser um cachorro?

É difícil encontrar uma probabilidade para isso.

Mas você pode encontrar a resposta para $$ P (B∣A) $$ Qual é a probabilidade de um animal de quatro patas atrás da cortina e kimono embora seja um cachorro, agora é fácil calcular que pode ser quase 1 e você insere esses valores no teorema de Bayes e encontrará a resposta para $$ P (A ∣B) $$ que é a probabilidade de o animal ser um cachorro que no início foi difícil.

Agora, esta é apenas uma versão simplificada onde você pode intuitivamente pensar por que reorganizar a fórmula poderia ajude-nos. Espero que isso ajude.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *