Возможно ли, что точность персептрона уменьшается, когда я больше тренируюсь через тренировку? В этом случае я использую один и тот же набор тренировок несколько раз.Связь между точностью персептрона и эпохой
ответ
Да.
Это общепринятое явление, точность данных, которые никогда не были замечены (данные испытаний), начинают уменьшаться после определенной точки (после определенного количества проходов через данные обучения - то, что вы называете эпохами). Это явление называется overfitting и хорошо понято. Вы хотите как можно раньше остановиться или использовать регуляризацию.
Ни точность набора данных обучения, ни набор тестовых данных не стабильны по мере увеличения эпохи. Фактически, experimental data указал, что тренд либо ошибки образца, либо ошибки выборки не является даже монотонным. И стратегия «pocket» часто применяется. В отличие от ранней остановки, карманный алгоритм сохраняет лучшее решение, увиденное до сих пор «в кармане» вместо последнего решения.