2016-12-10 5 views
1

После запуска h2o.deeplearning для бинарной проблемы классификации, то я бегу h2o.predict и получить следующие результатыКак интерпретировать результаты h2o.predict

predict  No  Yes 
1  No 0.9784425 0.0215575 
2  Yes 0.4667428 0.5332572 
3  Yes 0.3955087 0.6044913 
4  Yes 0.7962034 0.2037966 
5  Yes 0.7413591 0.2586409 
6  Yes 0.6800801 0.3199199 

Я надеялся получить матрицу путаницы только с два ряда. Но это, похоже, совсем другое. Как интерпретировать эти результаты? Есть ли способ получить что-то вроде матрицы путаницы с фактическими и прогнозируемыми значениями и процентом ошибки?

+2

Попробуйте функцию h2o.performance – jmuhlenkamp

+0

Просьба предоставить более подробную информацию в вашем вопросе, в противном случае, вы получите общие ответы. –

ответ

5

Вы можете извлечь эту информацию из модели, пригодной (например, если вы передаете validation_frame), или вы можете использовать h2o.performance(), чтобы получить объект производительности H2OBinomialModel и извлечь матрицу путаницы с использованием h2o.confusionMatrix().

Пример:

fit <- h2o.deeplearning(x, y, training_frame = train, validation_frame = valid, ...) 
h2o.confusionMatrix(fit, valid = TRUE) 

Или

fit <- h2o.deeplearning(x, y, train, ...) 
perf <- h2o.performance(fit, test) 
h2o.confusionMatrix(perf)