0

Почему потери при тренировке и потери валидации в сверточном автоматическом кодировщике не уменьшаются. Данные обучения имеют размерность 10496x1024, а CAE обучается 32x32 размерным изображениям в keras. Я уже пробовал l2regularization, но не очень помог. Я тренируюсь в течение 20 эпох. Какие могут быть другие альтернативы?Потеря обучения и потери валидации в сверточном автоматическом кодировщике не сильно уменьшаются

Выход:

Epoch 1/20 10496/10496 [========] - 52s - потери: 0,4029 - val_loss: 0,3821

Эпоха 2/20 10496/10496 [========] - 52s - потеря: 0,3825 - val_loss: 0,3784

Эпоха 3/20 10496/10496 [=======] - 52s - loss: 0.3802 - val_loss: 0,33772

Epo ch 4/20 10496/10496 [=======] - 51s - убыток: 0,3789 - val_loss: 0,3757

Эпоха 5/20 10496/10496 [=======] - 52s - потеря: 0,3778 - val_loss: 0,3752

Epoch 6/20 10496/10496 [=======] - 51s - потери: 0,3770 - val_loss: 0,3743

Эпоха 7/20 10496/10496 [=======] - 54s - потери: 0,3763 - val_loss: 0,3744

Epoch 8/20 10496/10496 [=======] - 51s - потери: 0,3758 - val_loss: 0,3735

Epoch 9/20 10496/10496 [=======] - 51s - потери: 0,3754 - val_loss: 0,3731

Epoch 10/20 10496/10496 [===== ==] - 51s - потери: 0,3748 - val_loss: 0,3739

Epoch 11/20 10496/10496 [=======] - 51s - потери: 0,3745 - val_loss: 0,3729

Эпоха 12/20 10496/10496 [=======] - 54s - убыток: 0,37741 - val_loss: 0,3723

Epoch 13/20 10496/10496 [=======] - 51s - потеря: 0,3736 - val_loss: 0,3718

Epoch 14/20 10496/10496 [=======] - 52s - потери: 0,3733 - val_loss: 0,3716

Epoch 15/20 10496/10496 [=======] - 52s - потери: 0,3731 - val_loss: 0,3717

эпоха 16/20 10496/10496 [=======] - 51s - убыток: 0,3728 - val_loss: 0,3712

Эпоха 17/20 10496/10496 [=======] - 49s - los с: 0,3725 - val_loss: 0,3709

Epoch 18/20 10496/10496 [=======] - 36s - потери: 0,3723 - val_loss: 0.3710

Epoch 19/20 10496/10496 [=======] - 37s - потеря: 0,3721 - val_loss: 0,3708

Epoch 20/20 10496/10496 ======= =] - 37s - потеря: 0,3720 - val_loss: 0,3704

+0

Без вашей сетевой архитектуры невозможно ответить на ваш вопрос. Похоже, ваша модель недостаточно сложна для обработки ваших данных, поэтому обе ошибки велики. – pyan

ответ

0

Вашей сеть все еще учится, и не замедляется, так много в эпохе 20. Вы можете попробовать более высокий уровень обучения, и больше эпох с ранним если у вас достаточно данных. Этот подход может быть применен также с методами регуляризации и проверкой кросс-кросс-карты.