Скрытая модель Маркова: текущее наблюдение зависит от предыдущего наблюдения
Этот вопрос относится к случаю однородных дискретных HMM.
В обычных HMM вероятность текущего состояния зависит только от предыдущего состояния, то есть Pr(S_t|S_1,S_2,...,S_(t-1)) = Pr(S_t|S_(t-1)), а вероятность выходного наблюдения зависит от текущего состояния, то есть Pr(O_t|O_1,...,O_(t-1),S_1,...,S_t) = Pr(O_t|S_t). Затем мы можем использовать алгоритм "Вперед-Назад" (Baum-Welch) для оценки вероятности перехода и эмиссии.
Мой вопрос касается случая, когда текущее наблюдение зависит от текущего состояния и предыдущего наблюдения, то есть Pr(O_t|O_1,...,O_(t-1),S_1,...,S_t) = Pr(O_t|O_(т-1),S_t). Как тренировать такую модель? Я думал об использовании того же алгоритма Баума-Уэлча, но вместо того, чтобы иметь M вероятностей выбросов для каждого состояния (представляющих M возможных выходных сигналов), будут MxM вероятности выбросов. Я имею в виду, что вероятности выбросов для каждого состояния будут представлять собой двумерную квадратную матрицу, где, например, строки представляют наблюдение в предыдущем состоянии, а столбцы представляют наблюдение в текущем состоянии.
Это действительно? Какие-либо другие идеи или цитаты к статьям, посвященным этой проблеме? Я искал документы, изучающие такой случай, но, к сожалению, не нашел ни одного.