Что вы можете спросить о неконтролируемой функции обучения и глубоком изучении.
Изучение функций - единственный метод, который я могу придумать в отношении NN или его недавнего варианта (вариант, названный смесью RBM, аналогичен смеси gaussians, но вы можете построить много моделей на основе двух). Но в основном две модели, с которыми я знаком, это RBM (ограниченные машины boltzman) и Autoencoders.
Autoencoders (опционально разреженные активации могут быть закодированы в функции оптимизации) - это просто несущие нейронные сети, которые настраивают свои веса таким образом, что выход представляет собой восстановленный вход. Можно использовать несколько скрытых слоев, но для инициализации веса используется более жаркая тренировка для более удобной начальной точки. Поэтому, чтобы ответить на вопрос, целевая функция будет сама вводить.
RBM - это стохастические сети, обычно интерпретируемые как графическая модель, которая имеет ограничения на соединения. В этой настройке нет выходного уровня, а соединение между входным и скрытым слоями двунаправлено, как неориентированная графическая модель. То, что он пытается узнать, - это распределение по входам (наблюдаемые и ненаблюдаемые переменные). Здесь также ваш ответ будет вводить цель.
Смесь RBM (аналогичная смеси гауссово) может использоваться для мягкой кластеризации или KRBM (аналогичная K-средству) может использоваться для жесткой кластеризации. На самом деле это похоже на изучение нескольких нелинейных подпространств.
http://deeplearning.net/tutorial/rbm.html
http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial
Итак, я предполагаю, что следующий вопрос, который у меня есть, это ... Можем ли мы использовать EM для обучения контролируемой нейронной сети? Если да, почему мы предпочитаем BackPropagation над EM? – Shatu