Sé que la regla de Bayes se deriva de la probabilidad condicional. Pero intuitivamente, ¿cuál es la diferencia? La ecuación me parece la misma. El nominador es la probabilidad conjunta y el denominador es la probabilidad del resultado dado.
Esta es la probabilidad condicional: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $
Esta es la regla de Bayes «: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .
No es «t $ P (B | A) * P (A) $ y $ P (A \ cap B) $ ¿son iguales? Cuando $ A $ y $ B $ son independientes, no es necesario utilizar la regla de Bayes, ¿verdad? ?
Comentarios
Respuesta
OK , ahora que actualizó su pregunta para incluir las dos fórmulas:
$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {siempre que} P (B) > 0, \ tag {1} $$ sea el definición de la probabilidad condicional de $ A $ dado que $ B $ . De manera similar, $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {siempre que} P (A) > 0, \ tag {2} $$ sea definición de la probabilidad condicional de $ B $ dado que $ A $ ocurrió. Ahora bien, es cierto que es una cuestión trivial sustituir el valor de $ P (A \ cap B) $ de $ (2) $ en $ (1) $ para llegar a $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {siempre que} P (A), P (B) > 0, \ tag {3} $$ que es fórmula de Bayes « pero observe que Bayes» s fórmula realmente conecta dos probabilidades condicionales diferentes $ P (A \ mid B) $ y $ P (B \ mid A) $ , y es esencialmente una fórmula para " darle la vuelta al condicionamiento ". El reverendo Thomas Bayes se refirió a esto en términos de " probabilidad inversa " e incluso hoy en día existe un intenso debate sobre si la inferencia estadística debería estar basado en $ P (B \ mid A) $ o la probabilidad inversa (llamada a posteriori o probabilidad posterior).
Sin duda, es tan irritante para usted como lo fue para mí cuando descubrí por primera vez que la fórmula de Bayes era solo una sustitución trivial de $ (2) $ en $ (1) $ . Quizás si naciste hace 250 años, tú (Nota: el OP enmascarado bajo el nombre de usuario AlphaBetaGamma cuando escribí esta respuesta pero desde entonces ha cambiado su nombre de usuario) podría haber hecho la sustitución y entonces la gente hoy estaría hablando sobre la fórmula AlphaBetaGamma y la herejía AlphaBetaGammian y el método Naive AlphaBetaGamma $ ^ * $ en lugar de invocar a Ba sí «nombre en todas partes.Déjeme consolarlo por su pérdida de fama señalando una versión diferente de la fórmula de Bayes. La ley de la probabilidad total dice que $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ y usando esto, podemos escribir $ (3) $ como
$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ o más generalmente como $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ donde la probabilidad posterior de un posible " porque " $ A_i $ de un " datum " $ B $ está relacionado con $ P ( B \ mid A_i) $ , la probabilidad de la observación $ B $ cuando $ A_i $ es la hipótesis verdadera y $ P (A_i) $ , la probabilidad previa (¡horrores!) de la hipótesis $ A_i $ .
$ ^ * $ Hay un famoso periódico R. Alpher, H. Bethe y G. Gamow, " The Origin of Chemical Elements ", Physical Review, 1 de abril de 1948, que se conoce comúnmente como la $ \ alpha \ beta \ gamma $ paper .
Comentarios
- Hola señor, ¿podría por favor explicar lo que quiere decir con ' cambiar el condicionamiento '?
- @Siddhant Pasando de $ P (A \ mid B) $ a $ P (B \ mid A) $ es lo que quiero decir con " darle la vuelta al condicionamiento ". Por favor ignore la frase, que inventé en el acto para darle un nombre a lo que hace el ' Teorema de Bayes (da una expresión para $ P (A \ mid B) $ en términos de $ P (B \ mid A) $) ya que te confunde mucho.
Respuesta
Una Una forma de pensar intuitivamente en el teorema de Bayes es que cuando cualquiera de estos es fácil de calcular
$$ P (A∣B) ~~ \ text {o } P (B∣A) $$
podemos calcular el otro aunque el otro parece ser un poco difícil al principio
Considere un ejemplo, aquí $$ P (A∣B) $$ es decir que tengo una cortina y te dije que hay un animal detrás de la cortina y dado que es un animal de cuatro patas, ¿qué ¿Cuál es la probabilidad de que ese animal sea un perro?
Es difícil encontrar una probabilidad para eso.
Pero puede encontrar la respuesta para $$ P (B∣A) $$ ¿Cuál es la probabilidad de que un animal de cuatro patas detrás de la cortina y A pesar de que es un perro, ahora es fácil de calcular que podría ser casi 1 y si ingresas esos valores en el teorema de Bayes, encontrarás la respuesta para $$ P (A ∣B) $$ esa es la probabilidad de que el animal sea un perro, lo cual al principio fue difícil.
Ahora, esta es solo una versión demasiado simplificada en la que puedes pensar intuitivamente por qué reorganizar la fórmula podría Ayúdanos. Espero que esto ayude.
A
dadoB
. Semánticamente, ' digo que ' siempre es necesario usar la regla de Bayes ' , pero cuandoA
yB
son independientes, la regla se puede reducir a una forma mucho más simple.