Nagyon egyszerű magyarázatot keresek Baum Welchre és Viterbi-re HMM-ekhez, egy egyszerű, jól megjegyzéssel ellátott példával. Szinte az összes magyarázat, amelyet a neten találok, változatlanul a kezdetektől szinte teljesen zsargon / szimbólum alapú magyarázatként ugrik be: néhányszor van példájuk, általában oldalra tolják vagy rosszul jegyzik (vagyis nem világos, hogy a szimbólumok és Olyan dolgokat hallottam már, hogy egyes források azt állítják, hogy a Baum Welch az EM algoritmuson alapszik, mások pedig azt mondják, hogy ez az előrefelé irányuló visszafelé alapuló algoritmuson alapszik, és egyesek szerint mindkettőjüket, ezért szeretnék olyan részleteket szerezni, mint például ez tisztázódott.
A legközelebb eddig találtam egy 1 órás videót, amelyet itt tettek közzé, amelyről az emberek azt mondták, hogy nagyszerű, de nem játszható le, mert a flash tiltva van, és a wikipédián található magyarázat, amely mellett egy megjegyzés található, amely rossz .
Válasz
Nagyon egyszerű magyarázatot keresek Baum Welch és Viterbi számára a HMM-ekre …
-
A megfigyelt adatok alapján a Baum-Welch algoritmus megtalálja a valószínűség-maximalizáló paramétereket.
-
A megfigyelt adatok és a paraméterek miatt a A Viterbi algoritmus megtalálja a rejtett állapotok legvalószínűbb sorrendjét.
Olyan dolgokat hallottam, mint egyes források, amelyek szerint Baum Welch az EM algoritmus alapján …
A Baum-Welch algoritmus az EM algoritmus speciális esete.
… és mások azt mondják, hogy a továbbított algoritmuson alapulnak
Az előre-hátra bontás az “E-” lépés végrehajtása (az EM terminológia használatával). A rejtett Markov modellekre jellemző.
Az a néhány alkalom, amikor van egy példájuk, általában oldalra tolják, vagy rosszul jegyzik (azaz nem világos, hogyan a szimbólumok és a példa összefügg egymással)
Nem tudom, milyen példákat nézel meg, de elmondhatom, hogy ott sok jó odakinn. Ne feledje, hogy ezeket a módszereket nagyon régen találták ki, és még mindig széles körben használják . A fentebb linkelt Rabiner valószínűleg a leghíresebb, de meg kell találnia egy tetszését, amelyet tovább dolgozni fog. Azt javaslom, hogy találjon egyet egy példával, amely olyan adatokat tartalmaz, amelyek érdeklik Önt, és azt, hogy megtapasztalható érzés. Bármit is talál, annak sok jelölése lesz. Ennek nincs más lehetősége, ezért csak meg kellett találnia valamit, amibe bele tud szállni.
Válasz
a tökéletes papír az Ön számára: http://www.stat.columbia.edu/~liam/teaching/neurostat-fall17/papers/hmm/rabiner.pdf
Vegye figyelembe, hogy vannak újabb BW módszerek.
Egyszerű magyarázat megkísérlése a Viterbi számára: A viterbi célja egy optimális állapotsorozat megtalálása egy diszkrét időtartam alatt.
Kezdje azzal a kezdeti valószínűséggel, hogy $ s $ állapotban lehet egy időben $ t = 0 $. Ezután növelje a $ t $ értéket, és minden akkori államhoz ($ t = 1 $) keresse meg a legjobb $ s $ államot $ t-1 $ értéken (a legjobb, mint a legnagyobb valószínűségű sorrendben) ). Mentse el ezeket az információkat. Ez azt jelenti, hogy minden államnál $ s $ a $ t = 1 $ értéknél mentse el a legjobb $ s $ állapotot a $ t = 0 $ értéknél. Mentsük el az (optimális) sorozat valószínűségét is.
Ezután növelje a $ t $ értéket $ t = 2 $ értékre, és ismételje meg az eljárást (ahol az egyes államok $ s $ valószínűsége $ t-1 $ az adott állam számára éppen kiszámított legjobb valószínűség). e ponttal eléred a $ t = T $ -t (az idő utolsó pontja). Ezután csak a legnagyobb valószínűséggel válassza ki az állapotot, és emlékezzen minden államra minden alkalommal, amikor a legjobb állapotot mentette $ t-1 $ értékre, ezért vegye a legjobb állapotot $ t = T $ értékre, majd mindig visszafelé haladjon az optimálisan mentett állapot kiválasztása.
Bővebben arról, hogy mit csinál általánosabb szinten: Ha van $ S $ állapothalmaza, amelyek valamennyien kiválaszthatók bizonyos ideig, $ T $, A legjobb szekvencia megtalálásának naiv megoldása az összes lehetséges szekvencia felsorolása, majd mindegyikük valószínűségének kiszámítása (ez azt jelenti, hogy kiszámoljuk az állapot és az átmenet valószínűségének szorzatát). Az itt elkövetett hiba az, hogy sok számítás megismétlődik, példaként két szekvenciája lehet $ p_1, p_2 $ ($ p $ az állapotok sorozata), ahol az egyetlen különbség a végső állapot, mégis ezzel a megközelítéssel kiszámítja a megosztott állapotok valószínűségét mind a $ P (p_1) $, mind a $ P (p_2) $ esetében.
A viterbi-ben alkalmazott iteratív megközelítést alkalmazva nincsenek duplikált számítások, így nyilvánvalóan ez lesz sokkal hatékonyabb.
Megjegyzések
- youtube.com/watch?v=6JVqutwtzmo A fenti videó grafikusan elmagyarázza, mit magyarázott Nimitz14 (gyönyörűen).