2017-01-24 3 views
1

В CNTK у него есть relu, hardmax, softmax, сигмоид и все эти хорошие вещи, но я строю алгоритм, основанный на регрессии, и последний уровень должен предсказывать 2 или более регрессионных выхода. Поэтому мне нужны n узлов, а активация - просто запуск линейной активации мельницы. Я вижу, что могу установить активацию None, это на самом деле правильная вещь?Функция линейной активации cntk в слоях?

with cntk.layers.default_options(activation=cntk.ops.relu, pad=True): 
    z = cntk.models.Sequential([ 
     cntk.models.LayerStack(2, lambda : [ 
      cntk.layers.Convolution((3,3), 64), 
      cntk.layers.Convolution((3,3), 64), 
      cntk.layers.MaxPooling((3,3), (2,2)) 
     ]), 
     cntk.models.LayerStack(2, lambda i: [ 
      cntk.layers.Dense([256,128][i]), 
      cntk.layers.Dropout(0.5) 
     ]), 
     cntk.layers.Dense(4, activation=None) 
    ])(feature_var) 

ответ

3

Да. Это верно. Вы можете посмотреть код библиотеки слоев here

 Смежные вопросы

  • Нет связанных вопросов^_^