2016-05-08 5 views
5

Я использую Gradient boosting для классификации. Хотя результат улучшается, но я получаю NaN в validdeviance.«действительное отклонение» - это для модели GBM, что это значит и как избавиться от этого?

Model = gbm.fit(
    x= x_Train , 
    y = y_Train , 
    distribution = "bernoulli", 
    n.trees = GBM_NTREES , 
    shrinkage = GBM_SHRINKAGE , 
    interaction.depth = GBM_DEPTH , 
    n.minobsinnode = GBM_MINOBS , 
    verbose = TRUE 
) 

Результат

enter image description here

Как настроить параметр, чтобы получить validdeviance.

ответ

5

Я была такая же проблема, как ни странно, мы мало на этом ...

Добавление train.fraction = 0.5 к списку опций решает эту проблему (это, кажется, нет значения по умолчанию, и validdeviance не вычисленный без значение значения train.fraction явно указано).