2017-01-17 22 views
3

Как указано here, кросс-энтропия не является надлежащей функцией потерь для классификации с несколькими метками. Мой вопрос: «Этот факт справедлив и для кросс-энтропии с softmax?». Если да, то как его можно сопоставить с this part документа.- это кросс-энтропия с использованием Softmax для классификации с несколькими метками?

Следует отметить, что сфера моего вопроса находится в cntk.

ответ

5

Многоуровневая классификация обычно означает «много бинарных меток». Учитывая это определение, кросс-энтропия с softmax не подходит для многоклассовой классификации. Документ во второй ссылке, которую вы предоставляете, говорит о проблемах с многокласными задачами, а не о многозначных проблемах. Кросс-энтропия с softmax подходит для классификации многоклассов. Для многоколоночной классификации общим выбором является использование суммы бинарных кросс-энтропий каждой метки. Бинарная кросс-энтропия может быть вычислена с помощью Logistic в Brainscript или с binary_cross_entropy в Python.

Если с другой стороны вы столкнулись со многими метками многоклассы, то вы можете использовать cross_entropy_with_softmax для каждого из них, и CNTK автоматически суммирует все эти значения потерь.

+0

Название связанного документа: «Обучить многоуровневый классификатор», и как вы сказали «Документ, на который вы ссылаетесь, чтобы говорить о проблемах с многоклассовыми задачами, а не о проблемах с несколькими метками»? – OmG

+0

У вас есть две ссылки в вашем вопросе. Я обращался к другому. Обновлен ответ, чтобы прояснить это. –

 Смежные вопросы

  • Нет связанных вопросов^_^