Я изучаю Марковские случайные поля и, судя по всему, вывод в MRF сложно/вычислительно дорого. В частности, книга Кевина Мерфи «Машинное обучение: вероятностная перспектива» гласит следующее:Почему вывод в Марковских случайных полях трудно?
«В первом члене мы фиксируем y на его наблюдаемые значения, иногда это называется зажатым членом. Во втором члене y является свободным; это иногда называют незакрепленным термином или контрастным термином. Обратите внимание, что вычисление незакрепленного термина требует вывода в модели, и это должно выполняться один раз на шаг градиента. Это делает обучение ненаправленным графическим моделям более жестким, чем подготовка ориентированных графических моделей ».
Почему мы здесь делаем вывод? Я понимаю, что мы суммируем все y, что кажется дорогим, но я не вижу, где мы на самом деле оцениваем любые параметры. Википедия также говорит о умозаключениях, но говорит только о вычислении условного распределения и нуждается в сумме по всем не указанным узлам. Но .. это не то, что мы здесь делаем, не так ли?
В качестве альтернативы, у любого есть хорошая интуиция о том, почему вывод в MRF затруднен?
Источники: Глава 19 МЛ: PP: https://www.cs.ubc.ca/~murphyk/MLbook/pml-print3-ch19.pdf
Конкретная раздел показано ниже