Почему потери при тренировке и потери валидации в сверточном автоматическом кодировщике не уменьшаются. Данные обучения имеют размерность 10496x1024
, а CAE
обучается 32x32
размерным изображениям в keras
. Я уже пробовал l2regularization
, но не очень помог. Я тренируюсь в течение 20 эпох. Какие могут быть другие альтернативы?Потеря обучения и потери валидации в сверточном автоматическом кодировщике не сильно уменьшаются
Выход:
Epoch 1/20 10496/10496 [========] - 52s - потери: 0,4029 - val_loss: 0,3821
Эпоха 2/20 10496/10496 [========] - 52s - потеря: 0,3825 - val_loss: 0,3784
Эпоха 3/20 10496/10496 [=======] - 52s - loss: 0.3802 - val_loss: 0,33772
Epo ch 4/20 10496/10496 [=======] - 51s - убыток: 0,3789 - val_loss: 0,3757
Эпоха 5/20 10496/10496 [=======] - 52s - потеря: 0,3778 - val_loss: 0,3752
Epoch 6/20 10496/10496 [=======] - 51s - потери: 0,3770 - val_loss: 0,3743
Эпоха 7/20 10496/10496 [=======] - 54s - потери: 0,3763 - val_loss: 0,3744
Epoch 8/20 10496/10496 [=======] - 51s - потери: 0,3758 - val_loss: 0,3735
Epoch 9/20 10496/10496 [=======] - 51s - потери: 0,3754 - val_loss: 0,3731
Epoch 10/20 10496/10496 [===== ==] - 51s - потери: 0,3748 - val_loss: 0,3739
Epoch 11/20 10496/10496 [=======] - 51s - потери: 0,3745 - val_loss: 0,3729
Эпоха 12/20 10496/10496 [=======] - 54s - убыток: 0,37741 - val_loss: 0,3723
Epoch 13/20 10496/10496 [=======] - 51s - потеря: 0,3736 - val_loss: 0,3718
Epoch 14/20 10496/10496 [=======] - 52s - потери: 0,3733 - val_loss: 0,3716
Epoch 15/20 10496/10496 [=======] - 52s - потери: 0,3731 - val_loss: 0,3717
эпоха 16/20 10496/10496 [=======] - 51s - убыток: 0,3728 - val_loss: 0,3712
Эпоха 17/20 10496/10496 [=======] - 49s - los с: 0,3725 - val_loss: 0,3709
Epoch 18/20 10496/10496 [=======] - 36s - потери: 0,3723 - val_loss: 0.3710
Epoch 19/20 10496/10496 [=======] - 37s - потеря: 0,3721 - val_loss: 0,3708
Epoch 20/20 10496/10496 ======= =] - 37s - потеря: 0,3720 - val_loss: 0,3704
Без вашей сетевой архитектуры невозможно ответить на ваш вопрос. Похоже, ваша модель недостаточно сложна для обработки ваших данных, поэтому обе ошибки велики. – pyan