Когда речь заходит о сверточных нейронных сетях, обычно есть много статей, рекомендующих разные стратегии. Я слышал, что люди говорят, что абсолютное обязательство должно добавлять к изображениям изображения до свертки, в противном случае теряется большая пространственная информация. С другой стороны, они с удовольствием используют объединение, обычно максимальное объединение, чтобы уменьшить размер изображений. Думаю, мысль состоит в том, что максимальное объединение уменьшает пространственную информацию, но также снижает чувствительность к относительным позициям, поэтому это компромисс?Максимальное объединение против нулевого заполнения: потеря пространственной информации
Я слышал, как другие люди говорили, что нулевое заполнение не содержит больше информации, а всего лишь пустых данных. Это связано с тем, что добавив нули, вы не получите реакции со своего ядра в любом случае, когда часть информации отсутствует.
Я могу представить, что нулевое заполнение работает, если у вас большие ядра со значениями «лома» по краям и источником активации, центрированным в меньшей области ядра?
Я был бы рад прочитать некоторые статьи о влиянии сэмплирования с использованием пула, не используя прокладку, но я не могу найти много об этом. Какие-нибудь хорошие рекомендации или мысли?
Рисунок: Пространственное вниз выборки с помощью свертки контра пулы (ResearchGate)
Я голосующий, чтобы закрыть этот вопрос как не по теме, потому что это вопрос теории машинного обучения (а не программирования), и поэтому, вероятно, он принадлежит http://datascience.stackexchange.com или http: //stats.stackexchange. ком. – mtrw