a feltételes valószínűség és a bayes-szabály közötti különbség

Tudom, hogy a Bayes-szabály a feltételes valószínűségből származik. De intuitív módon mi a különbség? Az egyenlet számomra ugyanúgy néz ki. A nominátor az együttes valószínűség, a nevező pedig az adott eredmény valószínűsége.

Ez a feltételes valószínűség: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

Ez a Bayes-szabály: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Isn “t $ P (B | A) * P (A) $ és $ P (A \ cap B) $ ugyanaz? Ha a $ A $ és a $ B $ független, akkor nem kell használni a Bayes-szabályt, ugye ?

Megjegyzések

  • Ha a kérdéséhez hozzáadná azokat a konkrét egyenleteket, amelyek ugyanúgy néznek ki Önnek, akkor valaki segíthet. A kettő, amit ismerek, egészen másnak tűnik számomra, de a statisztikáknak nagy hagyománya van. SE azt mondja, hogy a Bayes képlete $$ P (A \ B közepe) = \ frac {P (A \ cap B)} { P (B)} $$, amely valójában a $ A $ feltételes valószínűségének meghatározása adott $ B $ értékre, és egyáltalán nem a Bayes-képlet.
  • @DilipSarwate, frissítettem a kérdésemet.
  • Az utolsó kérdésre: igen, ezek ugyanazok! Ez nem jelenti azt, hogy a Bayes ' szabály ' egy hasznos képlet. A feltételes valószínűség képlet nem adja meg nekünk annak a valószínűségét, hogy A adott B. Szemantikailag azt mondom ', hogy ' mindig szükségem van a Bayes ' szabály használatára , de ha A és B független, akkor a szabály sokkal egyszerűbb formára redukálható.
  • Megértem A Bayes-szabály hasznos. Mivel A és B nem függetlenek, mi a feltételes valószínűségi függvény és a Bayes-szabály különbsége, ha a jelölők alapvetően azonosak (javítson ki, ha tévedek)?
  • Válaszom itt egy másik nézetet nyújt lényegében erről a kérdésről.

Válasz

OK , most, hogy frissítette kérdését a két képlettel:

$$ P (A \ B közepe) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {feltéve, hogy} P (B) > 0, \ tag {1} $$ a a $ A $ feltételes valószínűségének meghatározása, ha a $ B $ történt. Hasonlóképpen, $$ P (B \ A közepe) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {feltéve, hogy} P (A) > 0, \ tag {2} $$ a a $ B $ feltételes valószínűségének meghatározása, mivel $ A $ történt. Most igaz, hogy elenyésző dolog a $ P (A \ cap B) $ érték helyettesítése a $ (2) $ a $ (1) $ fájlba a $$ P (A \ közepén B) eléréséhez ) = \ frac {P (B \ A közepe) P (A)} {P (B)} ~~ \ text {feltéve, hogy} P (A), P (B) > 0, \ tag {3} $$ , amely Bayes “képlet , de észreveszi, hogy Bayes formula valójában két különböző feltételes valószínűséget $ P (A \ közepes B) $ és $ P köt össze (B \ mid A) $ , és lényegében egy képlet arra, hogy " a kondicionálást " felé fordítsa. Thomas Bayes tiszteletes " inverz valószínűség " vonatkozásában utalt erre, és még ma is élénk vita folyik arról, hogy a statisztikai következtetéseknek $ P (B \ közep A) $ vagy az inverz valószínűség ( a posteriori vagy posterior valószínűségnek nevezett) alapján kell alapozni.

Kétségtelenül ugyanolyan bosszantó számodra, mint nekem, amikor először fedeztem fel, hogy a Bayes-képlet csak egy aprócska helyettesítése a $ (2) $ -nak $ (1) $ . Talán, ha 250 évvel ezelőtt született, te (Megjegyzés: az OP AlphaBetaGamma felhasználónévvel álcázta, amikor írtam ez a válasz, de azóta megváltoztatta a felhasználónevét) helyettesíthette volna, és akkor a mai emberek az AlphaBetaGamma képletről és az AlphaBetaGammian eretnekségről és a Naiv AlphaBetaGamma módszerről beszélnek span> Ba meghívása helyett igen “név mindenhol.Tehát hadd vigasztalhassam hírnevének elvesztéséről, ha rámutatok a Bayes “képlet egy másik változatára. A teljes valószínűség törvénye azt mondja, hogy $$ P (B ) = P (B \ A közepe) P (A) + P (B \ közepe A ^ c) P (A ^ c) \ tag {4} $$ , és ennek használatával írhatunk $ (3) $ as

$$ P (A \ B közepe) = \ frac {P (B \ közepén A) P (A)} {P (B \ közepén A) P (A) + P (B \ közepén A ^ c) P (A ^ c)}, \ tag {5} $$ vagy általánosabban $$ P (A_i \ közepe B) = \ frac {P (B \ közepe A_i) P (A_i)} {P (B \ közep A_1) P (A_1 ) + P (B \ közepe A_2) P (A_2) + \ cdots + P (B \ közepe A_n) P (A_n)}, \ tag {6} $$ , ahol a lehetséges " egy "

$ A_i $ okot okoz

datum " $ B $ a $ P ( B \ mid A_i) $ , a megfigyelés valószínűsége $ B $ , amikor a $ A_i $ az igaz hipotézis, és $ P (A_i) $ , a hipotézis előzetes valószínűsége (borzalmak!) $ A_i $ .


$ ^ * $ van egy híres papír, R. Alpher, H. Bethe és G. Gamow, " Az eredet kémiai elemek ", fizikai áttekintés, 1948. április 1., amelyet a $ \ alpha \ beta \ gamma $ papír .

Megjegyzések

  • Helló Uram, kérem, szíveskedne magyarázd el, mit értesz ' a kondicionálás ' megfordításával?
  • @Siddhant $ P-től (A \) B közepe) $ -tól $ P-ig (B \ mid A) $ arra gondolok, hogy " a kondicionálást " felé fordítom. Kérjük, hagyja figyelmen kívül azt a kifejezést, amelyet a helyszínen készítettem, hogy nevet adjak a Bayes ' tételnek (ez kifejezi a $ P (A \ közepe B) $ kifejezést) a (z) $ P (B \ közepes A) $) összege, mivel ez annyira összezavar.

Válasz

Egy a Bayes-re való intuitív gondolkodás “tétele az, hogy amikor ezek bármelyikét könnyű kiszámítani

$$ P (A∣B) ~~ \ text {vagy } P (B∣A) $$

kiszámíthatjuk a másikat, bár a másik elsőre kissé nehéznek tűnik

Vegyünk egy példát, Itt $$ P (A∣B) $$ azt mondják, hogy van függönyöm, és mondtam, hogy a függöny mögött van egy állat, és négylábú az az esély, hogy az állat kutya?

Nehéz megtalálni a valószínűségét erre.

De megtalálja a választ a kifejezésre $$ P (B∣A) $$ Mennyi a valószínűsége annak, hogy egy négylábú állat a függöny és a gi mögött Mivel ez egy kutya, most könnyű kiszámítani, hogy közel 1 lehet, és bedugja ezeket az értékeket a bayes-tételbe, és megtalálja a választ a $$ P (A ∣B) $$ ez annak a valószínűsége, hogy az állat kutya lesz, ami eleinte nehéz volt.

Ez most csak egy túlságosan leegyszerűsített verzió, ahol intuitív módon elgondolkodhat, miért is lehetne a képlet átrendezése segíts nekünk. Remélem, ez segít.

Vélemény, hozzászólás?

Az email címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük