Я работаю над репликацией нейронной сети. Я пытаюсь понять, как работают стандартные типы слоев. В частности, у меня возникли проблемы с поиском описания того, как ведут себя слои поперечной нормализации на обратном пути.Алгоритм обратного прополнения через уровень локализации локального отклика (LRN)
Поскольку нормализация уровня не имеет параметров, я мог предположить два возможных варианта:
градиенты ошибок из следующего (т.е. позже) слоя передаются в обратном направлении, не делая ничего для них.
Градиенты ошибки нормализуются так же, как активация нормализуется по каналам в прямом проходе.
Я не могу придумать причину, по которой вы делали бы один над другим, основываясь на любой интуиции, поэтому я хотел бы помочь в этом.
EDIT1:
слой представляет собой стандартный слой CAFFE, как описано здесь http://caffe.berkeleyvision.org/tutorial/layers.html (см 'Локальная Нормирование отклика (LRN)').
Реализация слоя в прямом проходе описана в разделе 3.3 статьи alexNet: http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
EDIT2:
Я считаю, что вперед и алгоритмы обратных частот описаны как в библиотеке Факела здесь: https://github.com/soumith/cudnn.torch/blob/master/SpatialCrossMapLRN.lua
и в библиотеке Caffe здесь: https://github.com/BVLC/caffe/blob/master/src/caffe/layers/lrn_layer.cpp
Пожалуйста, может кто знаком ни с/оба этих перевода метод для этапа обратного прохода в простой английский?
Можете ли вы ссылаться на ссылку о «слоях нормализации поперечной канавки»? Google только раскрывает документ arxiv, который, похоже, говорит о многом другом. Это вряд ли похоже на стандартный тип слоя. – IVlad
Добавлены ссылки @IVlad. – user1488804