différence entre la probabilité conditionnelle et la règle de Bayes

Je sais que la règle de Bayes est dérivée de la probabilité conditionnelle. Mais intuitivement, quelle est la différence? Léquation me semble la même. Le nominateur est la probabilité conjointe et le dénominateur est la probabilité du résultat donné.

Voici la probabilité conditionnelle: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

Voici la règle de Bayes « : $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Isn « t $ P (B | A) * P (A) $ et $ P (A \ cap B) $ pareil? Lorsque $ A $ et $ B $ sont indépendants, il nest pas nécessaire dutiliser la règle de Bayes, à droite ?

Commentaires

  • Si vous ajoutiez les équations spécifiques qui vous ressemblent à votre question, quelquun pourrait peut-être vous aider. Les deux que je connais me semblent assez différents, mais il y a une longue tradition sur stats.SE pour dire que la formule de Bayes est $$ P (A \ mid B) = \ frac {P (A \ cap B)} { P (B)} $$ qui est en fait la définition de la probabilité conditionnelle de $ A $ donnée $ B $, et pas du tout la formule de Bayes.
  • @DilipSarwate, jai mis à jour ma question.
  • À votre dernière question: oui, ce sont les mêmes! Cela ne ' t signifie Bayes ' règle nest pas ' une formule utile, cependant. La formule de probabilité conditionnelle ne ' t nous donne pas la probabilité de A donné B. Sémantiquement, je ' dis quil ' est toujours nécessaire dutiliser la règle de Bayes ' , mais lorsque A et B sont indépendants, la règle peut être réduite à une forme beaucoup plus simple.
  • Je comprends La règle de Bayes est utile. Étant donné que A et B ne sont pas indépendants, quelle est la différence entre la fonction de probabilité conditionnelle et la règle de Bayes si les nominateurs sont fondamentalement les mêmes (corrigez-moi si je me trompe)?
  • Ma réponse ici fournit une autre vue de lessentiel de ce problème.

Réponse

OK , maintenant que vous avez mis à jour votre question pour inclure les deux formules:

$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {à condition que} P (B) > 0, \ tag {1} $$ soit le définition de la probabilité conditionnelle de $ A $ étant donné que $ B $ sest produit. De même, $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {à condition que} P (A) > 0, \ tag {2} $$ soit le définition de la probabilité conditionnelle de $ G $ étant donné que $ A $ sest produit. Maintenant, il est vrai quil est trivial de remplacer la valeur de $ P (A \ cap B) $ de $ (2) $ dans $ (1) $ pour arriver à $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {à condition que} P (A), P (B) > 0, \ tag {3} $$ qui est formule de Bayes «  mais notez que Bayes » s la formule relie en fait deux probabilités conditionnelles différentes $ P (A \ mid B) $ et $ P (B \ mid A) $ , et est essentiellement une formule pour " inverser le conditionnement ". Le révérend Thomas Bayes y a fait référence en termes de " probabilité inverse " et même aujourdhui, il y a un débat animé sur la question de savoir si linférence statistique devrait être basé sur $ P (B \ mid A) $ ou sur la probabilité inverse (appelée a posteriori ou probabilité postérieure).

Cest sans aucun doute aussi irritant pour vous que pour moi lorsque jai découvert pour la première fois que la formule de Bayes nétait quune simple substitution de $ (2) $ en $ (1) $ . Peut-être que si vous êtes né il y a 250 ans, vous (Remarque: lOP masqué sous le nom dutilisateur AlphaBetaGamma lorsque jai écrit cette réponse, mais a depuis changé son nom dutilisateur) aurait pu faire la substitution et les gens aujourdhui parleraient de la formule AlphaBetaGamma et de lhérésie AlphaBetaGammian et de la méthode Naive AlphaBetaGamma $ ^ * $ au lieu dinvoquer Ba oui « nom partout.Alors permettez-moi de vous consoler sur votre perte de renommée en indiquant une version différente de la formule de Bayes « . La loi de la probabilité totale dit que $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ et en utilisant ceci, nous pouvons écrire $ (3) $ as

$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ ou plus généralement comme $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ où la probabilité postérieure dun possible " cause " $ A_i $ dun " datum " $ B $ est lié à $ P ( B \ mid A_i) $ , la vraisemblance de lobservation $ B $ lorsque $ A_i $ est lhypothèse vraie et $ P (A_i) $ , la probabilité préalable (horreurs!) de lhypothèse $ A_i $ .


$ ^ * $ Voici il y a un article célèbre R. Alpher, H. Bethe et G. Gamow, " The Origin of Chemical Elements ", Physical Review, 1er avril 1948, communément appelé the $ \ alpha \ beta \ gamma $ papier .

Commentaires

  • Bonjour Monsieur, pourriez-vous sil vous plaît expliquez ce que vous entendez par ' inversant le conditionnement '?
  • @Siddhant Partant de $ P (A \ mid B) $ à $ P (B \ mid A) $ est ce que jentends par " inversant le conditionnement ". Veuillez ignorer la phrase, que jai inventée sur place pour donner un nom à ce que Bayes ' Théorème fait (il donne une expression pour $ P (A \ mid B) $ en termes de $ P (B \ mid A) $) car cela vous déroute tellement.

Réponse

Un façon de penser intuitivement au théorème de Bayes « est que lorsque lun de ceux-ci est facile à calculer

$$ P (A∣B) ~~ \ text {ou } P (B∣A) $$

nous pouvons calculer lautre même si lautre semble être un peu difficile au début

Prenons un exemple, ici $$ P (A∣B) $$ cest dire que jai un rideau et je vous ai dit quil y a un animal derrière le rideau et étant donné que cest un animal à quatre pattes quoi est la probabilité que cet animal soit un chien?

Il est difficile de trouver une probabilité pour cela.

Mais vous pouvez trouver la réponse pour $$ P (B∣A) $$ Quelle est la probabilité dun animal à quatre pattes derrière le rideau et gi Même sil sagit dun chien, il est maintenant facile de calculer quil pourrait être proche de 1 et vous insérez ces valeurs dans le théorème de bayes et vous trouverez la réponse pour $$ P (A ∣B) $$ cest la probabilité que lanimal soit un chien, ce qui au début était difficile.

Il ne sagit maintenant que dune version simplifiée dans laquelle vous pouvez penser intuitivement pourquoi réorganiser la formule pourrait Aidez nous. Jespère que cela vous aidera.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *