У меня есть язык BerkeleyLM model и вы хотите использовать его, чтобы получить вероятность в этой модели данного n-грамма (который исходит из предложения).BerkeleyLM: получить вероятность n-грамм
Я тестировал оба метода, как указано ниже, но они не возвращают вероятности, а отрицательные числа, например, -1.111 или -5. Что здесь сделано неправильно?
Ну, это похоже на хорошее объяснение. Вы случайно не знаете, что это такое? Я имею в виду, почему меня интересует журнал p, а не p? – pedjjj
Это связано с тем, что вероятность длинной последовательности слов является результатом совокупности вероятностей, которые все меньше 1. Это может стать очень маленьким и вызвать проблемы из-за ограничений с плавающей запятой. Вот почему мы работаем в лог-пространстве. Это также облегчает получение производных. – navari