Я использую tanh в качестве функции активации. Возьмем, к примеру, одну проблему.Как ускорить обучение для прямой передачи, основанные на градиенте backpropagation нейронные сети
XOR Problem:
1 1 0
0 1 1
1 0 1
0 0 0
Когда я тренируюсь моей нейронной сети 500 эпох, Результатов выглядят следующим образом:
1 1 0.001015
0 1 0.955920
1 0 0.956590
0 0 0.001293
После еще 500 эпохи:
1 1 0.000428
0 1 0.971866
1 0 0.971468
0 0 0.000525
Еще 500 эпохи:
1 1 0.000193
0 1 0.980982
1 0 0.981241
0 0 0.000227
Похоже, что обучение замедляется. Моя нейронная сеть принимает forver, чтобы получить достаточно точную информацию для моих проблем с сущностью.
Есть ли способ ускорить обучение после того, как он начнет медленно терять?
Благодаря
У вас есть активация в выходном слое? каков ваш метод обучения? используемые параметры? вы должны включить весь код – lejlot
Какую функцию потерь вы используете? кросс-энтропия? Ошибка среднего квадрата? –