Je sais que la règle de Bayes est dérivée de la probabilité conditionnelle. Mais intuitivement, quelle est la différence? Léquation me semble la même. Le nominateur est la probabilité conjointe et le dénominateur est la probabilité du résultat donné.
Voici la probabilité conditionnelle: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $
Voici la règle de Bayes « : $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .
Isn « t $ P (B | A) * P (A) $ et $ P (A \ cap B) $ pareil? Lorsque $ A $ et $ B $ sont indépendants, il nest pas nécessaire dutiliser la règle de Bayes, à droite ?
Commentaires
Réponse
OK , maintenant que vous avez mis à jour votre question pour inclure les deux formules:
$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {à condition que} P (B) > 0, \ tag {1} $$ soit le définition de la probabilité conditionnelle de $ A $ étant donné que $ B $ sest produit. De même, $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {à condition que} P (A) > 0, \ tag {2} $$ soit le définition de la probabilité conditionnelle de $ G $ étant donné que $ A $ sest produit. Maintenant, il est vrai quil est trivial de remplacer la valeur de $ P (A \ cap B) $ de $ (2) $ dans $ (1) $ pour arriver à $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {à condition que} P (A), P (B) > 0, \ tag {3} $$ qui est formule de Bayes « mais notez que Bayes » s la formule relie en fait deux probabilités conditionnelles différentes $ P (A \ mid B) $ et $ P (B \ mid A) $ , et est essentiellement une formule pour " inverser le conditionnement ". Le révérend Thomas Bayes y a fait référence en termes de " probabilité inverse " et même aujourdhui, il y a un débat animé sur la question de savoir si linférence statistique devrait être basé sur $ P (B \ mid A) $ ou sur la probabilité inverse (appelée a posteriori ou probabilité postérieure).
Cest sans aucun doute aussi irritant pour vous que pour moi lorsque jai découvert pour la première fois que la formule de Bayes nétait quune simple substitution de $ (2) $ en $ (1) $ . Peut-être que si vous êtes né il y a 250 ans, vous (Remarque: lOP masqué sous le nom dutilisateur AlphaBetaGamma lorsque jai écrit cette réponse, mais a depuis changé son nom dutilisateur) aurait pu faire la substitution et les gens aujourdhui parleraient de la formule AlphaBetaGamma et de lhérésie AlphaBetaGammian et de la méthode Naive AlphaBetaGamma $ ^ * $ au lieu dinvoquer Ba oui « nom partout.Alors permettez-moi de vous consoler sur votre perte de renommée en indiquant une version différente de la formule de Bayes « . La loi de la probabilité totale dit que $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ et en utilisant ceci, nous pouvons écrire $ (3) $ as
$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ ou plus généralement comme $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ où la probabilité postérieure dun possible " cause " $ A_i $ dun " datum " $ B $ est lié à $ P ( B \ mid A_i) $ , la vraisemblance de lobservation $ B $ lorsque $ A_i $ est lhypothèse vraie et $ P (A_i) $ , la probabilité préalable (horreurs!) de lhypothèse $ A_i $ .
$ ^ * $ Voici il y a un article célèbre R. Alpher, H. Bethe et G. Gamow, " The Origin of Chemical Elements ", Physical Review, 1er avril 1948, communément appelé the $ \ alpha \ beta \ gamma $ papier .
Commentaires
- Bonjour Monsieur, pourriez-vous sil vous plaît expliquez ce que vous entendez par ' inversant le conditionnement '?
- @Siddhant Partant de $ P (A \ mid B) $ à $ P (B \ mid A) $ est ce que jentends par " inversant le conditionnement ". Veuillez ignorer la phrase, que jai inventée sur place pour donner un nom à ce que Bayes ' Théorème fait (il donne une expression pour $ P (A \ mid B) $ en termes de $ P (B \ mid A) $) car cela vous déroute tellement.
Réponse
Un façon de penser intuitivement au théorème de Bayes « est que lorsque lun de ceux-ci est facile à calculer
$$ P (A∣B) ~~ \ text {ou } P (B∣A) $$
nous pouvons calculer lautre même si lautre semble être un peu difficile au début
Prenons un exemple, ici $$ P (A∣B) $$ cest dire que jai un rideau et je vous ai dit quil y a un animal derrière le rideau et étant donné que cest un animal à quatre pattes quoi est la probabilité que cet animal soit un chien?
Il est difficile de trouver une probabilité pour cela.
Mais vous pouvez trouver la réponse pour $$ P (B∣A) $$ Quelle est la probabilité dun animal à quatre pattes derrière le rideau et gi Même sil sagit dun chien, il est maintenant facile de calculer quil pourrait être proche de 1 et vous insérez ces valeurs dans le théorème de bayes et vous trouverez la réponse pour $$ P (A ∣B) $$ cest la probabilité que lanimal soit un chien, ce qui au début était difficile.
Il ne sagit maintenant que dune version simplifiée dans laquelle vous pouvez penser intuitivement pourquoi réorganiser la formule pourrait Aidez nous. Jespère que cela vous aidera.
A
donnéB
. Sémantiquement, je ' dis quil ' est toujours nécessaire dutiliser la règle de Bayes ' , mais lorsqueA
etB
sont indépendants, la règle peut être réduite à une forme beaucoup plus simple.