2

Когда речь заходит о сверточных нейронных сетях, обычно есть много статей, рекомендующих разные стратегии. Я слышал, что люди говорят, что абсолютное обязательство должно добавлять к изображениям изображения до свертки, в противном случае теряется большая пространственная информация. С другой стороны, они с удовольствием используют объединение, обычно максимальное объединение, чтобы уменьшить размер изображений. Думаю, мысль состоит в том, что максимальное объединение уменьшает пространственную информацию, но также снижает чувствительность к относительным позициям, поэтому это компромисс?Максимальное объединение против нулевого заполнения: потеря пространственной информации

Я слышал, как другие люди говорили, что нулевое заполнение не содержит больше информации, а всего лишь пустых данных. Это связано с тем, что добавив нули, вы не получите реакции со своего ядра в любом случае, когда часть информации отсутствует.

Я могу представить, что нулевое заполнение работает, если у вас большие ядра со значениями «лома» по краям и источником активации, центрированным в меньшей области ядра?

Я был бы рад прочитать некоторые статьи о влиянии сэмплирования с использованием пула, не используя прокладку, но я не могу найти много об этом. Какие-нибудь хорошие рекомендации или мысли? Spatial down-sampling using convolution contra pooling

Рисунок: Пространственное вниз выборки с помощью свертки контра пулы (ResearchGate)

+1

Я голосующий, чтобы закрыть этот вопрос как не по теме, потому что это вопрос теории машинного обучения (а не программирования), и поэтому, вероятно, он принадлежит http://datascience.stackexchange.com или http: //stats.stackexchange. ком. – mtrw

ответ

0

Добавление отступы не является «абсолютной необходимостью». Иногда бывает полезно контролировать размер вывода, чтобы он не уменьшался сверткой (он также может увеличивать выход, в зависимости от его размера и размера ядра). Единственная информация, которую добавляет нулевое дополнение, - это условие границы (или приграничной) характеристик - пикселей в пределах ввода, также в зависимости от размера ядра. (Вы можете думать об этом как о «passe-partout» в рамке с картинками)

Объединение БОЛЬШЕ БОЛЬШЕ ЗНАЧЕНИЙ в convnets. Объединение - это не совсем «опрокидывание» или «потеря пространственной информации». Рассмотрим сначала, что вычисления ядра были сделаны до объединения, с полной пространственной информацией. Объединение уменьшает размер, но сохраняет -хорошо - информацию, полученную ранее ядрами. И, делая это, достигает одной из самых интересных вещей о коннетах; устойчивость к смещению, вращению или искажению ввода. Инвариантность, если она изучена, находится, даже если она появляется в другом месте или с искажениями. Это также подразумевает обучение через все более масштабные масштабы, открывая, по-видимому, иерархические шаблоны в разных масштабах. И, конечно же, а также необходимые в convnets, объединение делает возможным вычисление по мере роста количества слоев.

0

Я тоже потрудился по этому вопросу, и я также видел, как некоторые бумаги упоминают этот же вопрос. Вот недавняя статья, которую я нашел; Recombinator Networks: Learning Coarse-to-Fine Feature Aggregation. Я не полностью читал газету, но, похоже, вы беспокоитесь о своем вопросе. Я могу обновить этот ответ, как только полностью поймаю бумагу.