Tiedän, että Bayes-sääntö on johdettu ehdollisesta todennäköisyydestä. Mutta intuitiivisesti, mikä on ero? Yhtälö näyttää minulle samanlaiselta. Nimittäjä on yhteinen todennäköisyys ja nimittäjä on annetun tuloksen todennäköisyys.
Tämä on ehdollinen todennäköisyys: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $
Tämä on Bayes-sääntö: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .
Ei ”t $ P (B | A) * P (A) $ ja $ P (A \ cap B) $ sama? Kun $ A $ ja $ B $ ovat riippumattomia, Bayes-sääntöä ei tarvitse käyttää, oikea ?
Kommentit
Vastaa
OK , nyt kun olet päivittänyt kysymyksesi sisällyttämään kaksi kaavaa:
$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {edellyttäen, että} P (B) > 0, \ tag {1} $$ on määritelmä $ A $ ehdollisen todennäköisyyden vuoksi, koska $ B $ tapahtui. Vastaavasti $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {edellyttäen, että} P (A) > 0, \ tag {2} $$ on määritelmä $ B $ ehdollisen todennäköisyyden vuoksi, koska $ A $ tapahtui. On totta, että on triviaalia korvata $ P (A \ cap B) $ arvo $ (2) $ osaksi $ (1) $ päästäksesi $$ P (A \ puolivälissä B ) = \ frac {P (B \ keskellä A) P (A)} {P (B)} ~~ \ teksti {edellyttäen, että} P (A), P (B) > 0, \ tag {3} $$ , joka on Bayes ”kaava , mutta huomaa, että Bayes kaava yhdistää kaksi erilaista ehdollista todennäköisyyttä $ P (A \ mid B) $ ja $ P (B \ mid A) $ , ja se on pohjimmiltaan kaava " ehdollisuuden kääntämiseen ympäri ". Kunnianarvoisa Thomas Bayes viittasi tähän " käänteisen todennäköisyyden " perusteella, ja vielä nykyäänkin käydään vilkasta keskustelua siitä, pitäisikö tilastollista päätelmää käyttää perustuvat $ P (B \ mid A) $ tai käänteiseen todennäköisyyteen (kutsutaan a posteriori tai posterioriseksi todennäköisyydeksi).
Se on epäilemättä yhtä kiusallista sinulle kuin minulle, kun huomasin ensimmäisen kerran, että Bayes ”kaava oli vain triviaali korvaus $ (2) $ $ (1) $ . Ehkä jos olet syntynyt 250 vuotta sitten, sinä (Huomaa: OP naamioitiin käyttäjänimellä AlphaBetaGamma kirjoittaessani tämä vastaus, mutta on sittemmin vaihtanut käyttäjänimeään) olisi voinut korvata sen, ja nykyään ihmiset puhuisivat AlphaBetaGamma-kaavasta ja AlphaBetaGammian harhaopista ja Naivista AlphaBetaGamma-menetelmästä $ ^ * $ Ba: n käyttämisen sijaan kyllä ”nimi kaikkialla.Joten anna minun lohduttaa sinua maineesi menetyksessä viittaamalla eri versioon Bayes ”-kaavasta. Laki kokonaistodennäköisyydestä sanoo, että ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ ja tätä käyttämällä voimme kirjoittaa $ (3) $ as
$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ tai yleisemmin nimellä $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ keskellä A_2) P (A_2) + \ cdots + P (B \ keskellä A_n) P (A_n)}, \ tag {6} $$ , missä mahdollisen " aiheuttaa "
$ A_i $
datum " $ B $ liittyy $ P ( B \ mid A_i) $ , havainnon todennäköisyys $ B $ kun $ A_i $ on totta hypoteesi ja $ P (A_i) $ , hypoteesin aikaisempi todennäköisyys (kauhut!) $ A_i $ .
$ ^ * $ Siellä on kuuluisa paperi R. Alpher, H. Bethe ja G. Gamow, " Alkuperä kemiallisia elementtejä ", Physical Review, 1. huhtikuuta 1948, jota kutsutaan yleisesti nimellä $ \ alpha \ beta \ gamma $ paperi .
Kommentit
- Hei sir, voisitteko kiittää selitä mitä tarkoitat ' kääntämällä ehdollisuuden ympäri '?
- @Siddhant $ P (A \ keskellä B) $ – $ P (B \ mid A) $ tarkoitan " kääntämällä ehdollisuuden ympäri ". Ohita lause, jonka olen keksinyt paikan päällä antaakseni nimen Bayesin ' lauseelle (se antaa lausekkeen $ P (A \ mid B) $ -ehdoille) $ P (B \ mid A) $), koska se hämmentää sinua niin paljon.
Vastaa
Yksi tapa intuitiivisesti ajatella Bayesia ”lause on, että kun jokin näistä on helppo laskea
$$ P (A∣B) ~~ \ text {tai } P (B∣A) $$
voimme laskea toisen, vaikka toinen näyttää aluksi hieman kovalta
Harkitse esimerkkiä, Tässä $$ P (A∣B) $$ sanotaan, että minulla on verho, ja sanoin, että verhon takana on eläin ja koska se on nelijalkainen mitä onko eläimen todennäköisyys olla koira?
Sille on vaikea löytää todennäköisyyttä.
Mutta löydät vastauksen $$ P (B∣A) $$ Mikä on nelijalkaisen eläimen todennäköisyys verhon ja gi: n takana Koska se on koira, nyt on helppo laskea, että se voi olla lähes 1, ja liität nämä arvot Bayesin lauseeseen ja löydät vastauksen $$ P (A ∣B) $$ , joka on todennäköisyys siitä, että eläin on aluksi vaikea koira.
Nyt tämä on vain yli yksinkertaistettu versio, jossa voit intuitiivisesti miettiä, miksi kaavan uudelleen järjestäminen voisi auta meitä. Toivon, että tämä auttaa.
A
annetaanB
. Semanttisesti sanon ' sanon, että ' on aina tarpeen käyttää Bayes-sääntöä ' , mutta kunA
jaB
ovat riippumattomia, sääntö voidaan supistaa paljon yksinkertaisempaan muotoon.