2010-06-08 3 views
2

Предположим, что у меня есть проблема, которая в основном относится к классификации. То есть, учитывая некоторый ввод и ряд возможных классов вывода, найдите правильный класс для данного ввода. Нейронные сети и деревья решений - некоторые из алгоритмов, которые могут быть использованы для решения таких проблем. Однако эти алгоритмы обычно генерируют только один результат: результирующая классификация.Какая правильная терминология для чего-то, что не совсем классифицируется и не регрессирует?

Теперь, что, если меня интересует не только одна классификация, но и вероятность того, что входные данные относятся к каждому классу, :. I.E., вместо ответа «Этот вход принадлежит классу A», я хочу получить ответ «Этот вход принадлежит классу A с 80%, классом B с 15% и классом C с 5%».

Мой вопрос заключается не в том, как получить эти задние вероятности, а в правильной терминологии, чтобы описать процесс их поиска. Вы могли бы назвать это регрессией, так как теперь мы пытаемся оценить количество действительных значений, но я не совсем уверен, правильно ли это. Я чувствую, что это тоже не классификация, это нечто между ними.

Есть ли какое-либо слово, описывающее процесс определения условных апостериорных вероятностей класса, что некоторый вход принадлежит каждому из возможных классов вывода?

P.S. Я не совсем уверен, что на этот вопрос достаточно вопросов программирования, но поскольку речь идет о механическом обучении, а машинное обучение обычно связано с приличным количеством программирования, давайте сделаем это.

ответ

3

«Оценка апостериорной вероятности» звучит о праве на меня.

+0

Я согласен и уже рассмотрел это, я надеялся на что-то более сжатое, хотя ... –

+0

Это немного неуклюжий, но «задняя оценка» звучит как пуанлинг грязной шутки. – Stompchicken

+1

Я бы, вероятно, пошел с «вычислять заднюю вероятность» или «вычисление задней вероятности». Вы на самом деле не оцениваете это. Учитывая вашу модель, данные и предыдущие, есть только один задний, который вы вычисляете. В некоторых простых случаях у вас будет закрытое решение. Если вы этого не сделаете, вычислительный инструмент, который вы используете для вычисления всех ваших интегралов - MCMC или что-то еще, на самом деле не делает его оценкой. В конце вы говорите «задняя вероятность» не «оценка предыдущей вероятности». – Tristan

1

Как правило, процесс вычисления условного заднего распределения называется «выводом», поэтому вы можете сказать, что вы «выписываете распределение позади предыдущего класса».