Я начал работу с нейронными сетями, в настоящее время следуя в основном D. Kriesel's tutorial. С самого начала он вводит по меньшей мере три (разные?) Правила обучения (Hebbian, правило дельта, backpropagation) относительно контролируемого обучения.Нейронные сети - почему так много правил обучения?
Возможно, у меня что-то не хватает, но если цель состоит лишь в том, чтобы свести к минимуму ошибку, почему бы просто не применить градиентный спуск на Error(entire_set_of_weights)
?
Редактировать: Должен признаться, что ответы все еще меня путают. Было бы полезно, если бы можно было указать на фактическую разницу между этими методами и разницу между ними и прямым градиентным спуском.
Чтобы подчеркнуть это, эти правила обучения, похоже, учитывают многоуровневую структуру сети. С другой стороны, поиск минимума Error(W)
для всего набора весов полностью игнорирует его. Как это вписывается?