2016-11-10 18 views
0

Я довольно новичок в Скрытых марковских моделях, и я пытаюсь обернуть голову вокруг довольно простой части теории.Основная скрытая марковская модель, алгоритм Витерби

Я хотел бы использовать HMM в качестве классификатора, поэтому, учитывая временные ряды данных, у меня есть два класса: фон и сигнал.

Как оцениваются вероятности выбросов для каждого класса? Требуется ли алгоритму Витерби шаблон фона и сигнала для оценки prob (data | state)? Или я полностью пропустил это?

ответ

0

Чтобы сделать классификацию с Витерби, вам необходимо уже знать параметры модели.
Фон и сигнал являются вашими двумя скрытыми состояниями. С параметрами модели и наблюдаемыми данными вы хотите использовать Витерби для вычисления наиболее вероятной последовательности скрытых состояний.

процитировать hmmlearn documentation:

ТММ является порождающая вероятностная модель, в которой последовательность наблюдаемых переменных X порождается последовательностью внутреннего скрытого состояний Z. Скрытые состояния не будет наблюдается непосредственно. Предполагается, что переходы между скрытыми состояниями имеют вид (первый порядок) цепи Маркова. Они могут быть заданы в начале вероятностным вектором π и матрицей вероятности перехода A. Вероятность излучения наблюдаемого может быть любым распределением с параметрами , обусловленными текущим скрытым состоянием. HMM полностью определяется π, A и θ

.

Есть три фундаментальные проблемы для ПММ:

Given the model parameters and observed data, estimate the optimal sequence of hidden states. 
Given the model parameters and observed data, calculate the likelihood of the data. 
Given just the observed data, estimate the model parameters. 

Первая и вторая проблема может быть решена с помощью динамических алгоритмов программирования, известных как алгоритм Витерби и вперед-назад алгоритм , соответственно. Последний можно решить с помощью итеративного алгоритма ожиданий-максимизации (EM), известного как алгоритм Baum-Welch .

0

Итак, у нас есть два состояния для нашей скрытой марковской модели, шума и сигнала. У нас также должно быть что-то, что мы наблюдаем, которые могут быть единичными и нулями. В основном, это сигналы, а нули - шум, но вы получаете несколько нулей, смешанных с вашим сигналом, и несколько с шумом. Таким образом, вы должны знать

Probablity of 0,1 when in the "noise" state 
Probability of 0,1 when in the "signal" state 
Probability of transitioning to "signal" when in the "noise" state. 
Probability of transitioning to "noise" when in the "signal" state. 

Так мы отслеживаем вероятности каждого состояния для каждого временного интервала и, самое главное, наиболее вероятный маршрут мы получили там (на основе переходных вероятностей). Тогда мы предполагаем, что наиболее вероятным состоянием в конце временного ряда является наше фактическое конечное состояние и прослеживается назад.

 Смежные вопросы

  • Нет связанных вопросов^_^