Приложения нейронной сети, которые я видел, всегда изучают веса их входов и используют фиксированные «скрытые слои».Как называются следующие типы нейронных сетевых методов?
Но я задаюсь вопрос о следующих методах:
1) фиксированных входах, но скрытые слои уже не фиксированы, в том смысле, что функции ввода их вычисления могут быть переделаны (узнал)
2) фиксированные входы, но скрытые слои больше не фиксированы в том смысле, что, хотя у них есть кластеры, которые вычисляют фиксированные функции (умножение, добавление и т. Д.), Как ALU в процессоре или графическом процессоре) их входов , могут быть изучены веса соединений между ними и между ними и входом (это должно каким-то образом быть эквивалентно 1))
Они могут использоваться для моделирования систем, для которых мы знаем входы и выходные данные, а не как входные данные преобразуются в выход (выясняя, что находится внутри «черного ящика»). Существуют ли такие методы, и если да, то что они называются?
Для разъяснения: В 1) вы имеете в виду передаточную функцию в качестве обучаемой функции? Для 2) я не вижу ничего особенного (кроме частей, которые вы берете из 1)). Ваша описанная цель изучения функции, которая отображает входные данные -> вывод для известных входов, - это что-то, что «нормальная» нейронная сеть уже способна (например, XOR). Существует множество методов для «определения внутренней части черного ящика». Сеть, которую вы описываете, не будет объяснять больше, чем существующие модели. Поэтому я пока не вижу выгоды для этой цели. – runDOSrun
Да, в 1) Я имел в виду передаточную функцию (каждый нейрон или кластер нейронов мог развивать свою собственную функцию передачи, поскольку обучение продолжается). Чтобы быть точным, «известными» входами я имел в виду точно знать, что происходит (входы И их относительные силы), но почти не имеет модели того, как ввод преобразуется в выход (вы не знаете, добавляются или умножаются входы друг на друга , и т. д.). Вы говорите, что эти два метода не используются (они казались мне очевидными вещами, чтобы попробовать с нейронными сетями, но если их никто не использует, они, вероятно, были уступают другим методам)? – Bubba
P.S. Я знаю, что нормальная нейронная сеть может в принципе моделировать любую функцию, независимо от того, насколько вигглист, но у вас должно быть представление о том, сколько нейронов и слоев вам понадобится. Мне кажется, что нейронные сети с переменными передаточными функциями могут быть более гибкими в этом отношении (хотя вам, конечно, по-прежнему необходимо определенное количество проблем, минимальное количество нейронов). Интуитивно я думаю, что он также предоставит больше информации о лежащей в основе математике проблемы, которую вы изучаете (вы можете сразу обнаружить, что ваш черный ящик использует очень простую функцию), но я могу быть очень неправ. – Bubba