2016-02-14 5 views
0

У меня есть конвейн, который производит выход с несколькими метками. Т.е.: каждое изображение может быть помечено как от 0 до 10 меток. Вывод представляет собой тензор размера 10, содержащий 1s (обозначающий метку при этом индексе) и -1s (без метки в этом индексе). Цели находятся в одном формате. Таким образом:Альтернатива оптимальной матрице путаницы для классификации нескольких ярлыков в факеле

{1, 1, 1, -1, 1, 1, 1, 1, 1, 1} 

Указывает метки 1-3 и 5-10. Выход с несколькими метками нельзя использовать с матрицей путаницы пакета оптимизации факела. Каковы некоторые хорошие альтернативы для оценки точности прогнозирования?

В идеале, я хотел бы знать, насколько точно каждая метка в настоящее время прогнозируется, с точки зрения ложных срабатываний, истинных позитивов и т.д. Одна из идей было бы сделать 10 отдельных матриц путанице и кормить каждый данные для одного индекса , Есть ли лучшее решение?

Любой ввод оценивается.

Обновление: вышеупомянутый подход работал отлично, но это громоздко, когда есть много ярлыков. Я просто подумал, есть ли лучший способ.

+0

Является ли предлагаемый подход каким-то образом испорченным? –

ответ

0

Я сделал отдельные матрицы смешения для каждой метки, разделил выходные предсказания и добавил их в соответствующую матрицу. Посредством сопоставления точности классификации для набора обучения/валидации достаточно легко интерпретировать.