в то время как я читаю в том, как построить ИНС в pybrain, они говорят:Значение эпохи в нейронных сетей Обучение
обучить сеть для некоторых эпох. Как правило, вы бы установить что-то как 5 здесь,
trainer.trainEpochs(1)
Я посмотрел на то, что это значит, то я делаю вывод, что мы используем эпоху данных для обновления веса, если я выбираю для подготовки данных с 5 эпохи, как совет пираминов, набор данных будет разделен на 5 подмножеств, а макс будет обновляться в 5 раз больше.
Я знаком с онлайновым обучением, где обновляется после каждого образца данных или вектора объектов. Мой вопрос: как быть уверенным, что 5 эпох будет достаточно, чтобы построить модель и, возможно, установить вес? Каково преимущество этого способа в онлайн-обучении? Также термин «эпоха» используется при онлайн-обучении, означает ли это один вектор функции?
Итак, набор данных делится на эпохи, и каждая эпоха состоит из образцов? и каждая эпоха использовалась для построения модели? –
Это не то, что я сказал. Набор данных не разделен ни на что. Скажем, набор данных имеет 10 выборок (= векторы данных). Каждый образец последовательно отображается в сети. После образца nr. 10, вы начинаете с начала с nr. 1, 2, 3 ...., 10, затем начните снова на nr. 1, 2, 3 .... каждый раз, когда вы начинаете в начале с 1-го образца, вы делаете дополнительную эпоху обучения. 3 эпохи, изображенные в виде скобок: [1,2,3,4 ... 10], [1 ... 10], [1 ... 10]. Эпоха - это один проход во всем наборе данных. – runDOSrun
Есть ли одна эпоха, которая также выполняет градиентный спуск, чтобы найти минимальную ошибку? Если да, то зачем его запускать снова и снова, чтобы свести к минимуму ошибку? – mskw