ero ehdollisen todennäköisyyden ja bayes-säännön välillä

Tiedän, että Bayes-sääntö on johdettu ehdollisesta todennäköisyydestä. Mutta intuitiivisesti, mikä on ero? Yhtälö näyttää minulle samanlaiselta. Nimittäjä on yhteinen todennäköisyys ja nimittäjä on annetun tuloksen todennäköisyys.

Tämä on ehdollinen todennäköisyys: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

Tämä on Bayes-sääntö: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Ei ”t $ P (B | A) * P (A) $ ja $ P (A \ cap B) $ sama? Kun $ A $ ja $ B $ ovat riippumattomia, Bayes-sääntöä ei tarvitse käyttää, oikea ?

Kommentit

  • Jos lisäät kysymykseesi tietyt yhtälöt, jotka näyttävät sinulle samanlaisilta, joku voi auttaa sinua. Nämä kaksi, jotka tunnen, näyttävät minulle melko erilaisilta, mutta tilastoilla on pitkä perinne.SE sanoa, että Bayes-kaava on $$ P (A \ mid B) = \ frac {P (A \ cap B)} { P (B)} $$, joka on itse asiassa määritelmä $ A $: n ehdolliselle todennäköisyydelle annettuna $ B $, eikä lainkaan Bayes-kaava.
  • @DilipSarwate, olen päivittänyt kysymykseni.
  • Viimeiseen kysymykseesi: kyllä nämä ovat samat! Se ei tarkoita, että ' ei tarkoita, että Bayes ' -sääntö ei ole ' t hyödyllinen kaava. Ehdollisen todennäköisyyden kaava ei anna ' t meille todennäköisyyttä, että A annetaan B. Semanttisesti sanon ' sanon, että ' on aina tarpeen käyttää Bayes-sääntöä ' , mutta kun A ja B ovat riippumattomia, sääntö voidaan supistaa paljon yksinkertaisempaan muotoon.
  • Ymmärrän Bayes-sääntö on hyödyllinen. Koska A ja B eivät ole riippumattomia, mitä eroa ehdollisessa todennäköisyysfunktiossa ja Bayesin säännössä on, jos nimittäjät ovat periaatteessa samat (korjaa minut, jos olen väärässä)?
  • Vastaukseni täällä on toinen näkymä olennaisesti tästä asiasta.

Vastaa

OK , nyt kun olet päivittänyt kysymyksesi sisällyttämään kaksi kaavaa:

$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {edellyttäen, että} P (B) > 0, \ tag {1} $$ on määritelmä $ A $ ehdollisen todennäköisyyden vuoksi, koska $ B $ tapahtui. Vastaavasti $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {edellyttäen, että} P (A) > 0, \ tag {2} $$ on määritelmä $ B $ ehdollisen todennäköisyyden vuoksi, koska $ A $ tapahtui. On totta, että on triviaalia korvata $ P (A \ cap B) $ arvo $ (2) $ osaksi $ (1) $ päästäksesi $$ P (A \ puolivälissä B ) = \ frac {P (B \ keskellä A) P (A)} {P (B)} ~~ \ teksti {edellyttäen, että} P (A), P (B) > 0, \ tag {3} $$ , joka on Bayes ”kaava , mutta huomaa, että Bayes kaava yhdistää kaksi erilaista ehdollista todennäköisyyttä $ P (A \ mid B) $ ja $ P (B \ mid A) $ , ja se on pohjimmiltaan kaava " ehdollisuuden kääntämiseen ympäri ". Kunnianarvoisa Thomas Bayes viittasi tähän " käänteisen todennäköisyyden " perusteella, ja vielä nykyäänkin käydään vilkasta keskustelua siitä, pitäisikö tilastollista päätelmää käyttää perustuvat $ P (B \ mid A) $ tai käänteiseen todennäköisyyteen (kutsutaan a posteriori tai posterioriseksi todennäköisyydeksi).

Se on epäilemättä yhtä kiusallista sinulle kuin minulle, kun huomasin ensimmäisen kerran, että Bayes ”kaava oli vain triviaali korvaus $ (2) $ $ (1) $ . Ehkä jos olet syntynyt 250 vuotta sitten, sinä (Huomaa: OP naamioitiin käyttäjänimellä AlphaBetaGamma kirjoittaessani tämä vastaus, mutta on sittemmin vaihtanut käyttäjänimeään) olisi voinut korvata sen, ja nykyään ihmiset puhuisivat AlphaBetaGamma-kaavasta ja AlphaBetaGammian harhaopista ja Naivista AlphaBetaGamma-menetelmästä $ ^ * $ Ba: n käyttämisen sijaan kyllä ”nimi kaikkialla.Joten anna minun lohduttaa sinua maineesi menetyksessä viittaamalla eri versioon Bayes ”-kaavasta. Laki kokonaistodennäköisyydestä sanoo, että ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ ja tätä käyttämällä voimme kirjoittaa $ (3) $ as

$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ tai yleisemmin nimellä $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ keskellä A_2) P (A_2) + \ cdots + P (B \ keskellä A_n) P (A_n)}, \ tag {6} $$ , missä mahdollisen " aiheuttaa "

$ A_i $

datum " $ B $ liittyy $ P ( B \ mid A_i) $ , havainnon todennäköisyys $ B $ kun $ A_i $ on totta hypoteesi ja $ P (A_i) $ , hypoteesin aikaisempi todennäköisyys (kauhut!) $ A_i $ .


$ ^ * $ Siellä on kuuluisa paperi R. Alpher, H. Bethe ja G. Gamow, " Alkuperä kemiallisia elementtejä ", Physical Review, 1. huhtikuuta 1948, jota kutsutaan yleisesti nimellä $ \ alpha \ beta \ gamma $ paperi .

Kommentit

  • Hei sir, voisitteko kiittää selitä mitä tarkoitat ' kääntämällä ehdollisuuden ympäri '?
  • @Siddhant $ P (A \ keskellä B) $ – $ P (B \ mid A) $ tarkoitan " kääntämällä ehdollisuuden ympäri ". Ohita lause, jonka olen keksinyt paikan päällä antaakseni nimen Bayesin ' lauseelle (se antaa lausekkeen $ P (A \ mid B) $ -ehdoille) $ P (B \ mid A) $), koska se hämmentää sinua niin paljon.

Vastaa

Yksi tapa intuitiivisesti ajatella Bayesia ”lause on, että kun jokin näistä on helppo laskea

$$ P (A∣B) ~~ \ text {tai } P (B∣A) $$

voimme laskea toisen, vaikka toinen näyttää aluksi hieman kovalta

Harkitse esimerkkiä, Tässä $$ P (A∣B) $$ sanotaan, että minulla on verho, ja sanoin, että verhon takana on eläin ja koska se on nelijalkainen mitä onko eläimen todennäköisyys olla koira?

Sille on vaikea löytää todennäköisyyttä.

Mutta löydät vastauksen $$ P (B∣A) $$ Mikä on nelijalkaisen eläimen todennäköisyys verhon ja gi: n takana Koska se on koira, nyt on helppo laskea, että se voi olla lähes 1, ja liität nämä arvot Bayesin lauseeseen ja löydät vastauksen $$ P (A ∣B) $$ , joka on todennäköisyys siitä, että eläin on aluksi vaikea koira.

Nyt tämä on vain yli yksinkertaistettu versio, jossa voit intuitiivisesti miettiä, miksi kaavan uudelleen järjestäminen voisi auta meitä. Toivon, että tämä auttaa.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *