rozdíl mezi podmíněnou pravděpodobností a Bayesovým pravidlem

Vím, že Bayesovo pravidlo je odvozeno z podmíněné pravděpodobnosti. Jaký je však rozdíl intuitivně? Rovnice pro mě vypadá stejně. Jmenovatel je společná pravděpodobnost a jmenovatel je pravděpodobnost daného výsledku.

Toto je podmíněná pravděpodobnost: $ P (A∣B) = \ frac {P (A \ cap B)} {P (B)} $

Toto je Bayesovo pravidlo: $ P (A∣B ) = \ frac {P (B | A) * P (A)} {P (B)} $ .

Není „t $ P (B | A) * P (A) $ a $ P (A \ cap B) $ stejné? Pokud jsou $ A $ a $ B $ nezávislé, není třeba používat Bayesovo pravidlo, správně ?

Komentáře

  • Pokud byste ke své otázce přidali konkrétní rovnice, které vypadají stejně, může vám někdo pomoci. Ty dva, které znám, vypadají pro mě zcela odlišně, ale ve statistikách existuje dlouhá tradice. SE říká, že Bayesův vzorec je $$ P (A \ mid B) = \ frac {P (A \ cap B)} { P (B)} $$, což je vlastně definice podmíněné pravděpodobnosti $ A $ vzhledem k $ B $, a vůbec ne Bayesův vzorec.
  • @DilipSarwate, aktualizoval jsem svou otázku.
  • K vaší poslední otázce: ano, jsou stejné! To však ' neznamená, že Bayesovo ' pravidlo není ' užitečným vzorcem. Vzorec podmíněné pravděpodobnosti nám ' neposkytuje pravděpodobnost A dané B. Sémanticky říkám ' že ' vždy je potřeba použít Bayesovo ' pravidlo , ale když jsou A a B nezávislé, lze pravidlo zredukovat do mnohem jednodušší podoby.
  • Rozumím Bayesovo pravidlo je užitečné. Vzhledem k tomu, že A a B nejsou nezávislé, jaký je rozdíl funkce podmíněné pravděpodobnosti a Bayesova pravidla, pokud jsou nominátoři v zásadě stejní (opravte mě, pokud se mýlím)?
  • Moje odpověď zde poskytuje další pohled na v podstatě tento problém.

Odpověď

OK , nyní, když jste aktualizovali svoji otázku tak, aby zahrnovala dva vzorce:

$$ P (A \ mid B) = \ frac {P (A \ cap B )} {P (B)} ~~ \ text {za předpokladu, že} P (B) > 0, \ tag {1} $$ je definice podmíněné pravděpodobnosti $ A $ vzhledem k tomu, že $ B $ došlo. Podobně $$ P (B \ mid A) = \ frac {P (B \ cap A)} {P (A)} = \ frac {P (A \ cap B) } {P (A)} ~~ \ text {za předpokladu, že} P (A) > 0, \ tag {2} $$ je definice podmíněné pravděpodobnosti $ B $ vzhledem k tomu, že $ A $ došlo. Nyní je pravda, že je triviální záměna nahradit hodnotu $ P (A \ cap B) $ z $ (2) $ do $ (1) $ a dorazit na $$ P (A \ mid B ) = \ frac {P (B \ mid A) P (A)} {P (B)} ~~ \ text {za předpokladu, že} P (A), P (B) > 0, \ tag {3} $$ , což je Bayes „vzorec , ale všimněte si, že Bayes vzorec ve skutečnosti spojuje dvě různé podmíněné pravděpodobnosti $ P (A \ mid B) $ a $ P (B \ mid A) $ a je to v podstatě vzorec pro " otočení podmínění ". Reverend Thomas Bayes se o tom zmínil z hlediska " inverzní pravděpodobnosti " a dokonce i dnes se vedou energické debaty o tom, zda by statistický závěr být založeno na $ P (B \ mid A) $ nebo inverzní pravděpodobnosti (nazývá se a posteriori nebo zadní pravděpodobnost).

Je to pro vás bezpochyby stejně chlípné, jako pro mě, když jsem poprvé zjistil, že Bayesův vzorec byl jen triviální náhradou $ (2) $ do $ (1) $ . Možná, že pokud jste se narodili před 250 lety, vy (Poznámka: OP se při psaní psal pod uživatelským jménem AlphaBetaGamma. tato odpověď, ale od té doby změnil své uživatelské jméno) mohl nahradit, a lidé by dnes mluvili o vzorci AlphaBetaGamma a kacířství AlphaBetaGammian a naivní metodě AlphaBetaGamma $ ^ * $ místo vyvolání Ba ano „jméno všude.Dovolte mi, abych vás utěšil nad ztrátou slávy poukázáním na jinou verzi Bayesova vzorce. Zákon celkové pravděpodobnosti říká, že $$ P (B ) = P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c) \ tag {4} $$ a pomocí toho můžeme napsat $ (3) $ as

$$ P (A \ mid B) = \ frac {P (B \ mid A) P (A)} {P (B \ mid A) P (A) + P (B \ mid A ^ c) P (A ^ c)}, \ tag {5} $$ nebo obecněji jako $$ P (A_i \ mid B) = \ frac {P (B \ mid A_i) P (A_i)} {P (B \ mid A_1) P (A_1 ) + P (B \ mid A_2) P (A_2) + \ cdots + P (B \ mid A_n) P (A_n)}, \ tag {6} $$ , kde je zadní pravděpodobnost možného " příčina " $ A_i $ z " datum " $ B $ souvisí s $ P ( B \ mid A_i) $ , pravděpodobnost pozorování $ B $ , když $ A_i $ je skutečná hypotéza a $ P (A_i) $ , předchozí pravděpodobnost (hrůzy!) hypotézy $ A_i $ .


$ ^ * $ Tam je slavný papír R. Alpher, H. Bethe a G. Gamow, " Původ of Chemical Elements ", Physical Review, 1. dubna 1948, které se běžně označuje jako papír $ \ alpha \ beta \ gamma $ .

Komentáře

  • Dobrý den, pane, mohl byste prosím vysvětlete, co máte na mysli tím, že ' otočíte klimatizaci '?
  • @Siddhant Going from $ P (A \ mid B) $ to $ P (B \ mid A) $ je to, co mám na mysli tím, že " otočíte klimatizaci ". Ignorujte prosím frázi, kterou jsem vytvořil na místě, abych pojmenoval to, co Bayes ' věta dělá (dává výraz pro $ P (A \ mid B) $ v termínech $ P (B \ mid A) $), protože vás to tolik mate.

Odpověď

Jeden způsob, jak intuitivně myslet na Bayesovu větu, „spočívá v tom, že když se dá snadno vypočítat kterýkoli z nich,

$$ P (A∣B) ~~ \ text {nebo } P (B∣A) $$

můžeme vypočítat ten druhý, i když se ten druhý zpočátku zdá být trochu tvrdý

Zvažte příklad, zde $$ P (A∣B) $$ se říká, že mám oponu a řekl jsem vám, že za oponou je zvíře a vzhledem k tomu, že se jedná o čtyřnohé zvíře je pravděpodobnost, že toto zvíře bude psem?

Je těžké najít pravděpodobnost, že k tomu dojde.

Odpověď pro však najdete $$ P (B∣A) $$ Jaká je pravděpodobnost čtyřnohého zvířete za oponou a gi ven, že je to pes, nyní je snadné vypočítat, že to může být téměř 1, a tyto hodnoty připojíte do Bayesovy věty a najdete odpověď pro $$ P (A ∣B) $$ to je pravděpodobnost, že zvíře bude psem, což bylo zpočátku těžké.

Nyní je to jen zjednodušená verze, kde můžete intuitivně přemýšlet, proč by změna uspořádání mohla Pomozte nám. Doufám, že to pomůže.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *