Tudom, hogy a Bayes-szabály a feltételes valószínűségből származik. De intuitív módon mi a különbség? Az egyenlet számomra ugyanúgy néz ki. A nominátor az együttes valószínűség, a nevező pedig az adott eredmény valószínűsége.
Ez a feltételes valószínűség: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $
Ez a Bayes-szabály: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .
Isn “t $ P (B | A) * P (A) $ és $ P (A \ cap B) $ ugyanaz? Ha a $ A $ és a $ B $ független, akkor nem kell használni a Bayes-szabályt, ugye ?
Megjegyzések
Válasz
OK , most, hogy frissítette kérdését a két képlettel:
$$ P (A \ B közepe) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {feltéve, hogy} P (B) > 0, \ tag {1} $$ a a $ A $ feltételes valószínűségének meghatározása, ha a $ B $ történt. Hasonlóképpen, $$ P (B \ A közepe) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {feltéve, hogy} P (A) > 0, \ tag {2} $$ a a $ B $ feltételes valószínűségének meghatározása, mivel $ A $ történt. Most igaz, hogy elenyésző dolog a $ P (A \ cap B) $ érték helyettesítése a $ (2) $ a $ (1) $ fájlba a $$ P (A \ közepén B) eléréséhez ) = \ frac {P (B \ A közepe) P (A)} {P (B)} ~~ \ text {feltéve, hogy} P (A), P (B) > 0, \ tag {3} $$ , amely Bayes “képlet , de észreveszi, hogy Bayes formula valójában két különböző feltételes valószínűséget $ P (A \ közepes B) $ és $ P köt össze (B \ mid A) $ , és lényegében egy képlet arra, hogy " a kondicionálást " felé fordítsa. Thomas Bayes tiszteletes " inverz valószínűség " vonatkozásában utalt erre, és még ma is élénk vita folyik arról, hogy a statisztikai következtetéseknek $ P (B \ közep A) $ vagy az inverz valószínűség ( a posteriori vagy posterior valószínűségnek nevezett) alapján kell alapozni.
Kétségtelenül ugyanolyan bosszantó számodra, mint nekem, amikor először fedeztem fel, hogy a Bayes-képlet csak egy aprócska helyettesítése a $ (2) $ -nak $ (1) $ . Talán, ha 250 évvel ezelőtt született, te (Megjegyzés: az OP AlphaBetaGamma felhasználónévvel álcázta, amikor írtam ez a válasz, de azóta megváltoztatta a felhasználónevét) helyettesíthette volna, és akkor a mai emberek az AlphaBetaGamma képletről és az AlphaBetaGammian eretnekségről és a Naiv AlphaBetaGamma módszerről beszélnek span> Ba meghívása helyett igen “név mindenhol.Tehát hadd vigasztalhassam hírnevének elvesztéséről, ha rámutatok a Bayes “képlet egy másik változatára. A teljes valószínűség törvénye azt mondja, hogy $$ P (B ) = P (B \ A közepe) P (A) + P (B \ közepe A ^ c) P (A ^ c) \ tag {4} $$ , és ennek használatával írhatunk $ (3) $ as
$$ P (A \ B közepe) = \ frac {P (B \ közepén A) P (A)} {P (B \ közepén A) P (A) + P (B \ közepén A ^ c) P (A ^ c)}, \ tag {5} $$ vagy általánosabban $$ P (A_i \ közepe B) = \ frac {P (B \ közepe A_i) P (A_i)} {P (B \ közep A_1) P (A_1 ) + P (B \ közepe A_2) P (A_2) + \ cdots + P (B \ közepe A_n) P (A_n)}, \ tag {6} $$ , ahol a lehetséges " egy "
$ A_i $ okot okoz
datum " $ B $ a $ P ( B \ mid A_i) $ , a megfigyelés valószínűsége $ B $ , amikor a $ A_i $ az igaz hipotézis, és $ P (A_i) $ , a hipotézis előzetes valószínűsége (borzalmak!) $ A_i $ .
$ ^ * $ van egy híres papír, R. Alpher, H. Bethe és G. Gamow, " Az eredet kémiai elemek ", fizikai áttekintés, 1948. április 1., amelyet a $ \ alpha \ beta \ gamma $ papír .
Megjegyzések
- Helló Uram, kérem, szíveskedne magyarázd el, mit értesz ' a kondicionálás ' megfordításával?
- @Siddhant $ P-től (A \) B közepe) $ -tól $ P-ig (B \ mid A) $ arra gondolok, hogy " a kondicionálást " felé fordítom. Kérjük, hagyja figyelmen kívül azt a kifejezést, amelyet a helyszínen készítettem, hogy nevet adjak a Bayes ' tételnek (ez kifejezi a $ P (A \ közepe B) $ kifejezést) a (z) $ P (B \ közepes A) $) összege, mivel ez annyira összezavar.
Válasz
Egy a Bayes-re való intuitív gondolkodás “tétele az, hogy amikor ezek bármelyikét könnyű kiszámítani
$$ P (A∣B) ~~ \ text {vagy } P (B∣A) $$
kiszámíthatjuk a másikat, bár a másik elsőre kissé nehéznek tűnik
Vegyünk egy példát, Itt $$ P (A∣B) $$ azt mondják, hogy van függönyöm, és mondtam, hogy a függöny mögött van egy állat, és négylábú az az esély, hogy az állat kutya?
Nehéz megtalálni a valószínűségét erre.
De megtalálja a választ a kifejezésre $$ P (B∣A) $$ Mennyi a valószínűsége annak, hogy egy négylábú állat a függöny és a gi mögött Mivel ez egy kutya, most könnyű kiszámítani, hogy közel 1 lehet, és bedugja ezeket az értékeket a bayes-tételbe, és megtalálja a választ a $$ P (A ∣B) $$ ez annak a valószínűsége, hogy az állat kutya lesz, ami eleinte nehéz volt.
Ez most csak egy túlságosan leegyszerűsített verzió, ahol intuitív módon elgondolkodhat, miért is lehetne a képlet átrendezése segíts nekünk. Remélem, ez segít.
A
adottB
. Szemantikailag azt mondom ', hogy ' mindig szükségem van a Bayes ' szabály használatára , de haA
ésB
független, akkor a szabály sokkal egyszerűbb formára redukálható.