В чем разница между цепными цепями марки и скрытой марковской моделью? Я читал в Википедии, но не мог понять различия.В чем разница между цепями марков и скрытой марковской моделью?
ответ
Чтобы пояснить на примере, я приведу пример из обработки естественного языка. Представьте, что вы хотите знать вероятность этого предложения:
Наслаждаюсь кофе
В марковской модели, можно оценить его вероятность путем расчета:
P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)
Теперь представьте, что мы хотели знать те части слова речи этого предложения, то есть, если слово является глаголом прошедшего времени, существительным и т. д.
Мы не наблюдаем любой p в этом предложении, в то время как мы предположим, что они. Таким образом, мы вычисляем, какова вероятность последовательности тегов частей речи. В нашем случае, фактическая последовательность:
PRP-ВБП-НН
Но подождите! Это последовательность, к которой мы можем применить марковскую модель. Но мы называем это скрытым, поскольку последовательность частей речи никогда не наблюдается непосредственно. Конечно, на практике мы вычислим много таких последовательностей, и мы бы хотели найти скрытую последовательность, которая наилучшим образом объясняет наше наблюдение (например, мы с большей вероятностью увидим слова, такие как «the», «this», созданные из определителя (DET) тег)
лучшее объяснение, которое я когда-либо сталкивался в работе с 1989 Лоуренс Р. Рабинером: http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf
Скрытые марковские модели представляют собой двойной встроенный стохастический процесс с двумя уровнями.
Верхний уровень - это марковский процесс, и состояния ненаблюдаемы.
Фактически наблюдение является вероятностной функцией состояний Маркова верхнего уровня.
Различные марковские состояния будут иметь различные вероятностные функции наблюдения.
Марковская модель государственная машина с изменениями состояния, являющимися вероятностями. В скрытой марковской модели вы не знаете вероятностей, но знаете результаты.
Например, когда вы переворачиваете монету, вы можете получить вероятности, но если вы не можете увидеть флипсы, а кто-то переместит один из пяти пальцев с каждым переводом монетки, вы можете совершить движение пальца и использовать скрытая марковская модель, чтобы получить лучшее предположение о переводе монет.
поскольку Мэтт использовал части, из речи тегов как пример НММ, я мог бы добавить один еще один пример: распознавание речи. Почти все крупные системы непрерывного распознавания речи (LVCSR) основаны на HMM.
"пример Мэтты": Я люблю кофе
В модели Маркова можно оценить ее вероятность путем расчета:
P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)
в скрытой модели Маркова,
Предположим, 30 человек прочитали предложение «Мне нравится обниматься», и мы должны его распознать. Каждый человек произносит это предложение по-разному. Поэтому мы НЕ знаем, означал ли человек «обнимать» или «забивать». Мы будем иметь вероятностное распределение фактического слова.
Короче говоря, скрытая марковская модель представляет собой статистическую марковскую модель, в которой модель, моделируемая, считается марковским процессом с ненаблюдаемыми (скрытыми) состояниями.
Вы должны рассмотреть вопрос о принятии ответ с наибольшим количеством голосов ниже. – Ron