Я играю с Лазанью какое-то время для решения проблемы двоичной классификации с использованием сверточной нейронной сети. Однако, хотя я получаю хорошие результаты (иш) для обучения и проверки, моя проверка и точность теста всегда постоянны (сеть всегда предсказывает тот же класс).Сверточная точность нейронной сети с лазаньей (регрессия против классификации)
Я столкнулся с this, у кого была такая же проблема, как у меня с лазанью. Их решением было установить regression=True
, поскольку они используют Nolearn поверх Лазанья.
Кто-нибудь знает, как установить эту же переменную в лазанье (как я не хочу использовать Nolearn)? В дополнение к этому, есть ли у кого-нибудь объяснение, почему это должно произойти?
Есть ли особая причина, по которой вы не хотите использовать nolearn? –
Никакой конкретной причины, кроме нее, похоже, добавляет еще один слой поверх лазаньи, который я не уверен. Как вы думаете, он добавляет больше функциональности? Также мне кажется, что отлаживать его сложнее? – mjacuse
IMO nolearn добавляет приятные функциональные возможности, такие как BatchIterator, которые я использую много для предварительной обработки (случайные данные об урожае и т. Д.). Я больше не нашел отладки, так как начал использовать nolearn. Но это личная точка зрения. –