2014-01-20 2 views
3

Я делаю проект, который требует обработки естественного языка. Я использую для этой цели stanford MaxEnt Classifier.Но я не уверен, является ли максимальная модель энтропии и логистическая регрессия единым целым или это какой-то особый вид логистической регрессии?максимальная модель энтропии и логистическая регрессия

Может ли кто-нибудь придумать объяснение?

+1

максимальная энтропия такая же, как полиномиальной логистической регрессии – NLPer

+1

также иногда называют логарифмически-линейную модель –

+0

@NLPer, так MaxEnt такая же, как SoftMax? – Alcott

ответ

3

Это точно такая же модель. Общество НЛП предпочитает имя Maximum Entropy и использует разреженную формулировку, которая позволяет вычислять все без прямой проекции на пространство R^n (так как для НЛП распространено огромное количество функций и очень редкие векторы).

2
  1. В Max энтропией функция represnt с Р (х, у), это означает, что вы можете разработать функцию с помощью у метки и observerable функции х, в то время как, если Р (х, у) = х это ситуация с логистической регрессией.

  2. Задача NLP, такая как POS, является общей для сочетания ярлыков функции. например: текущее слово заканчивается на «ous», а следующее слово - существительное. это может быть особенностью предсказать, является ли прил текущее слово

+1

Для каждой функции, зависящей от класса, существует эквивалентный набор функций, не зависящий от класса, для логической регрессии. Речь идет только о разреженности. – lejlot

+0

После запуска максимального энтропийного классификатора, учитывая веса для каждой функции для каждого класса, узнайте, какие из них являются лучшими функциями, чтобы удалить другие функции. @lejlot –

+0

@AmrithKrishna, абсолютное значение весов, относящихся к каждой функции, является признаком важности функции – michaeltang

2

Вы можете хотите прочитать вложение в этой должности, что дает простой вывод: http://www.win-vector.com/blog/2011/09/the-equivalence-of-logistic-regression-and-maximum-entropy-models/

Объяснение цитата из «речи и языка Обработка»по Дэниел Джурафски & Джеймс Х. Мартин .:

Каждая функция является функцией индикатора, который выбирает подмножество учебных наблюдений. Для каждой функции мы добавляем ограничение на наше общее распределение, указывая, что наше распределение для этого подмножества должно соответствовать эмпирическому распределению, которое мы видели в наших данных обучения. Затем мы выбираем максимальное распределение энтропии, которое в противном случае согласуется с этими ограничениями.

Berger et al. (1996) показывают, что решение этой задачи оптимизации оказывается точно распределением вероятностей модели многомерной логистической регрессии, вес W которой максимизирует вероятность данных обучения!