Baum Welch / Viterbi에 대한 간단한 설명

저는 HMM을위한 Baum Welch와 Viterbi에 대해 가능한 한 매우 간단한 설명을 찾고 있습니다. 인터넷에서 찾은 거의 모든 설명은 처음부터 거의 완전히 전문 용어 / 기호 기반 설명으로 이동합니다. 몇 번의 예제가있는 경우 일반적으로 옆으로 밀거나 주석이 제대로 표시되지 않습니다 (즉, 기호 및 예는 서로 관련이 있습니다.) Baum Welch가 EM 알고리즘을 기반으로한다고 주장하는 일부 소식통과 전 방향 역방향 알고리즘을 기반으로하는 일부 소식통을 들었습니다. 내가 지금까지 찾은 가장 가까운 동영상은 사람들이 훌륭하다고 말했지만 플래시가 금지되어 재생할 수 없다고 여기에 게시 한 1 시간 동영상과 그 옆에 잘못된 내용이라는 메모가있는 위키피디아에 대한 설명입니다. .

답변

HMM을위한 Baum Welch 및 Viterbi에 대한 매우 간단한 설명을 찾고 있습니다 …

  • 관측 데이터가 주어지면 Baum-Welch 알고리즘은 우도 최대화 매개 변수를 찾습니다.

  • 관측 된 데이터와 매개 변수가 주어지면 Viterbi 알고리즘은 가장 가능성이 높은 은닉 상태 시퀀스를 찾습니다.

Baum Welch가 EM 알고리즘 기반 …

Baum-Welch 알고리즘은 EM 알고리즘의 특별한 경우입니다.

… 그리고 다른 사람들은 순방향 역방향 알고리즘을 기반으로한다고 말합니다.

앞뒤 분해는 “E-“단계를 수행하는 방법입니다 (EM 용어 사용). 숨겨진 마르코프 모델에만 해당됩니다.

몇 번이나 예시가있는 경우 일반적으로 옆으로 밀거나 주석이 제대로 표시되지 않습니다 (예 : 기호와 예는 서로 관련이 있습니다.)

어떤 예를보고 있는지 모르겠지만 거기에 있다고 말할 수 있습니다. 많은 좋은 방법입니다. 이러한 방법은 아주 오래 전에 발명되었으며 여전히 널리 사용되고 있습니다. . 위에 링크 된 Rabiner는 아마도 가장 유명 할 것입니다.하지만 계속해서 작업 할 좋아하는 것을 찾아야합니다. 관심있는 데이터가 포함 된 예제를 찾아보고 느낌은 배울 수 있습니다. 당신이 찾은 것은 무엇이든 많은 표기법을 가질 것입니다. 그럴 방법이 없기 때문에 “정착 할 수있는 것을 찾아야합니다.

답변

나에게 딱 맞는 문서 : http://www.stat.columbia.edu/~liam/teaching/neurostat-fall17/papers/hmm/rabiner.pdf

새로운 BW 방법이 있다는 점에 유의하세요.

Viterbi에 대한 간단한 설명 시도 : viterbi의 목표는 특정 기간 동안 최적의 상태 시퀀스를 찾는 것입니다.
시간에 $ s $ 상태에있을 초기 확률부터 시작합니다. $ t = 0 $. 그런 다음 $ t $를 늘리고 그 당시의 각 주 ($ t = 1 $)에 대해 $ t-1 $에서 가장 좋은 주 $ s $를 찾습니다 (가장 높은 확률을 제공하는 순서에서 최고). ).이 정보를 저장합니다. 즉, $ t = 1 $에서 각 주 $ s $에 대해 $ t = 0 $에서 최상의 상태 $ s $를 저장합니다. 또한 해당 (최적) 시퀀스에 대한 확률도 저장합니다.
그런 다음 $ t $를 $ t = 2 $로 늘리고 절차를 반복합니다 ($ t-1 $에서 각 주에 대한 $ s $ 확률이 해당 주에 대해 방금 계산 된 최상의 확률이 됨). 포인트는 $ t = T $ (마지막 시점)에 도달합니다. 그런 다음 확률이 가장 높은 주를 선택하고 $ t-1 $에 대해 최상의 주를 저장할 때마다 각 주에 대해 기억하므로 $ t = T $에서 최상의 주를 선택한 다음 항상 거꾸로 작업합니다. 저장 한 최적 상태를 선택합니다.

좀 더 일반적인 수준에서 수행하는 작업에 대해 자세히 설명하려면 : $ T $ 기간 동안 모두 선택할 수있는 상태 집합이 $ S $ 인 경우 최상의 시퀀스를 찾기위한 순진한 해결책은 가능한 모든 시퀀스를 열거 한 다음 각각의 확률을 계산하는 것입니다 (즉, 상태 및 전환 확률의 곱을 계산하는 것을 의미합니다). 여기서 한 실수는 많은 계산이 중복된다는 것입니다. 예를 들어 두 개의 시퀀스 $ p_1, p_2 $ ($ p $는 상태 시퀀스)를 가질 수 있습니다. 여기서 유일한 차이점은 최종 상태이지만 이 접근 방식은 $ P (p_1) $ 및 $ P (p_2) $ 모두에 대한 공유 상태의 확률을 계산합니다.
viterbi에서 사용되는 반복적 접근 방식을 사용하면 중복 계산이 없으므로 분명히 계산됩니다. 훨씬 더 효율적입니다.

댓글

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다