После того как мы создали наивный байесовский классификатор объект nb
(скажем, с многофакторным распределением мультиномиального (mvmn
)), мы можем вызвать функцию posterior
по данным тестирования с использованием nb
объекта. Эта функция имеет 3 выходных параметров:Интерпретация «заднее» от Matlab NaiveBayses функции
[Сообщение, CPRE, LogP] = задний (NB, тест)
Я понимаю, как post
вычисляется и значение, что, также cpre
является предсказанной класс, основанный на максимальном превышении вероятностей для каждого класса.
Вопрос о logp
. Понятно, как оно вычисляется (логарифм PDF каждого образца в тесте), но я не понимаю смысла этой меры и как ее можно использовать в контексте процедуры Наивного Байеса. Любой свет на это очень ценится.
Спасибо.
Благодарим вас за ответ. Поскольку PDF каждой тестовой точки находится в диапазоне [0,1], тогда 'logp' будет находиться в (-infinity, 0]. Насколько я понимаю, чем выше эта мера (logp), тем лучше наш установленный классификатор предсказывает новый шаблон. Правильно? Также я прав, что предсказанный класс выбран в соответствии с максимумом всех задних вероятностей? Или мы также берем журналы в этом случае? Спасибо –
'logp' может быть положительным, если у вас есть такие вещи, как [особенности] (http : //stackoverflow.com/a/15563245/586086). PDF интегрируется только в 1, он может оценивать больше 1. Что вы здесь делаете, это вычислить [прогнозируемое правдоподобие] (http: //en.wikipedia. org/wiki/Posterior_predictive_distribution) –
спасибо, ссылки очень полезны. Итак, просто поместив, если мы для новой точки данных заметим «logp = x», можем ли мы сделать какой-либо вывод из этого значения «x», или мы можем скажем, только некоторая относительная информация по сравнению с другими точками? Т.е. если x большой отрицательный, близкий к нулю или большой положительный –