1
В CNTK у него есть relu, hardmax, softmax, сигмоид и все эти хорошие вещи, но я строю алгоритм, основанный на регрессии, и последний уровень должен предсказывать 2 или более регрессионных выхода. Поэтому мне нужны n узлов, а активация - просто запуск линейной активации мельницы. Я вижу, что могу установить активацию None, это на самом деле правильная вещь?Функция линейной активации cntk в слоях?
with cntk.layers.default_options(activation=cntk.ops.relu, pad=True):
z = cntk.models.Sequential([
cntk.models.LayerStack(2, lambda : [
cntk.layers.Convolution((3,3), 64),
cntk.layers.Convolution((3,3), 64),
cntk.layers.MaxPooling((3,3), (2,2))
]),
cntk.models.LayerStack(2, lambda i: [
cntk.layers.Dense([256,128][i]),
cntk.layers.Dropout(0.5)
]),
cntk.layers.Dense(4, activation=None)
])(feature_var)