2016-12-06 2 views
1

Я не знаю, можете ли вы мне помочь здесь, но у меня проблема, я не могу понять. У меня большой (для меня) набор данных около 450 000 записей. Каждая запись представляет собой список около ~ 700 целых чисел, отформатированный как это:TFLearn - Большой набор данных, идущий к NaN-потере

[217088.0, 212992.0, 696.0, 191891.0, 524.0, 320.0, 0.0, 496.0, 0, 0, 364.0, 20.0, 0, 1.0, 0, 0.0, 0, 4.0, 22.0, 0, 672.0, 46.0, 16.0, 0.0, 0.0, 106496.0, 8.0, 0, 4.0, 2.0, 26.0, 640.0, 0.0, 1073741888.0, 624.0, 516.0, 4.0, 3.0, 0, 4319139.0, 0.0, 0, 0.0, 36.0, 8.0, 217088.0, 0.0, 0, 0, 0, 4.0, 5.0, 0, 20.0, 255624.0, 65535.0, 5.10153058443, 396.0, 4319140.0, 552.0, 144.0, 28.0, 5.0, 1048576.0, 217088.0, 350.0, 0.0, 0, 7.0, 1048576.0, 260.0, 0, 116.0, 0, 322.0, 0.0, 0, 4319141.0, 0.0, 10.0, 0.0, 9.0, 4.0, 0, 0, 0, 6.36484131641, 0.0, 0, 11.0, 72.0, 372.0, 45995.0, 217088.0, 0, 4096.0, 12.0, 80.0, 592.0, 264.0, 0, 0, 4096.0, 0.0, 256.0, 0.0, 49152.0, 700.0, 0, 4096.0, 0, 0, 0.0, 336.0, 8.0, 0, 0.0, 0, 4319142.0, 0.0, 60.0, 308.0, 4319143.0, 0, 0, 0, 0, 0, 0.742746270768, 316.0, 420.0, 276.0, 1073741888.0, 0.0, 332.0, 284.0, 0, 1107296320.0, 0.0, 4.0, 13.0, 18.0, 0.0, 632.0, 424.0, 261200.0, 0.0, 299008.0, 0.0, 4096.0, 0, 0.0, 299008.0, 0, 658.0, 0, 4319144.0, 4319145.0, 12.0, 50.0, 292.0, 688.0, 484.0, 70.0, 20.0, 4319146.0, 16.0, 17.0, 0, 0, 0, 0.0, 18.0, 4.0, 330.0, 0.0, 0, 0.0, 42.0, 303104.0, 19.0, 8.0, 20.0, 0.0, 0.0, 544.0, 340.0, 0, 14.0, 0, 209078.0, 0.0, 0.0, 22.0, 0, 209078.0, 0.0, 0.0, 18932.0, 4319147.0, 4.58031739078, 0.0, 376.0, 0.0, 0, 632.0, 4.0, 0, 0, 0, 428.0, 0, 0, 323584.0, 0.0, 24.0, 4.0, 368.0, 12.0, 40.0, 0, 720.0, 4.0, 348.0, 267.0, 20468.0, 32.0, 45995.0, 303104.0, 0.0, 0.0, 0, 0, 224.0, 16.0, 4.0, 44.0, 0.0, 0.0, 444.0, 720.0, 0, 1180.0, 0.0, 16.0, 412.0, 0.0, 4.0, 8462.0, 600.0, 568.0, 16.0, 0, 2.0, 36.0, 0.0, 6.0, 0, 21.0, 0.0, 24.0, 0, 4.0, 652.0, 4319148.0, 92.0, 8.0, 2.0, 0, 0.0, 0, 16.0, 0, 0, 324.0, 4.0, 300.0, 0, 278.0, 400.0, 0, 0.0, 0, 352.0, 0, 0.0, 209078.0, 8.0, 4096.0, 8.0, 36.0, 0.0, 256.0, 268435456.0, 0.0, 48.0, 4319149.0, 6.0, 4319150.0, 0, 416.0, 0, 0, 283.0, 4.0, 0, 0, 0, 8.0, 592.0, 0, 0, 25.0, 0.0, 0, 0, 0.0, 332.0, 212992.0, 540.0, 512.0, 0, 532.0, 20.0, 26.0, 0.0, 0, 52.0, 440.0, 7.0, 488.0, 8.0, 12.0, 0.0, 60.0, 14.0, 3221225536.0, 7.0, 56.0, 432.0, 4.0, 0, 12.0, 0.0, 40.0, 680.0, 16.0, 504.0, 344.0, 576.0, 0.0, 452.0, 266240.0, 290816.0, 578.0, 0, 552.0, 34.0, 0.0, 636.0, 88.0, 698.0, 282.0, 328.0, 38.0, 8.0, 480.0, 64.0, 4319151.0, 0.0, 0.0, 34.0, 460.0, 64.0, 0, 612.0, 0.0, 4319152.0, 0, 604.0, 0, 436.0, 0, 0, 20.0, 0, 4.0, 0, 0, 0, 0, 40.0, 356.0, 584.0, 0, 84.0, 0.0, 0, 0, 0, 294912.0, 7.0, 29.0, 20.0, 0, 60.0, 0.0, 268.0, 536.0, 4319153.0, 0.0, 106.0, 456.0, 24.0, 404.0, 0, 31.0, 0, 380.0, 24.0, 648.0, 0.0, 0, 0, 0.0, 0, 0, 0, 0.0, 0, 0, 0.0, 0.0, 1883.0, 5.85655736551, 34.0, 17744.0, 28680.0, 38.0, 36.0, 0.0, 24576.0, 596.0, 107.0, 33.0, 4.0, 5.0, 0, 0, 45995.0, 384.0, 8.0, 0, 0, 500.0, 20468.0, 34.0, 312.0, 8.0, 660.0, 0.0, 35.0, 608.0, 0, 684.0, 8.0, 68.0, 0.0, 32.0, 34.0, 23117.0, 3.0, 520.0, 0, 4319154.0, 0, 0, 512.0, 8.0, 28.0, 4096.0, 0, 538.0, 0.0, 572.0, 0.0, 2.0, 36.0, 0.0, 0.0, 32.0, 32.0, 4.0, 28.0, 0, 4.0, 38.0, 68.0, 9.0, 0.0, 0, 0.0, 36.0, 39.0, 618.0, 0, 8.0, 266240.0, 4.0, 5.0, 34.0, 304.0, 0, 0.0, 20.0, 40.0, 0.0, 0.0, 0, 580.0, 556.0, 4.0, 8.0, 262.0, 0, 12.0, 32.0, 0, 76.0, 12.0, 184.0, 720.0, 4.0, 16.0, 644.0, 16.0, 28680.0, 4319155.0, 720.0, 0.0, 564.0, 392.0, 672.0, 0.0, 24.0, 492.0, 0, 0.0, 676.0, 0, 0, 0, 12.0, 592.0, 360.0, 8.0, 692.0, 552.0, 4.0, 36.0, 512.0, 7198.0, 42.0, 44.0, 45.0, 4319156.0, 20.0, 388.0, 476.0, 5.0, 36.0, 20480.0, 47.0, 16.0, 326.0, 0.0, 12.0, 0.0, 0.0, 7.0, 272.0, 280.0, 0.0, 0, 288.0, 48.0, 4319157.0, 10.0, 448.0, 4.0, 4.0, 0, 20468.0, 408.0, 2.0, 50.0, 560.0, 0, 1610612768.0, 8.0, 0, 620.0, 656.0, 4.0, 4096.0, 51.0, 0, 0, 0.0, 28.0, 0, 616.0, 0, 296.0, 2.0, 632.0, 468.0, 28.0, 32.0, 52.0, 0, 528.0, 0, 28.0, 0.0, 0, 24.0, 18.0, 4096.0, 0, 8.0, 180.0, 664.0, 4319158.0, 26.0, 0.0, 6.0, 0, 4096.0, 472.0, 0, 28.0, 72.0, 464.0, 672.0, 0, 24.0, 4.0, 0, 28680.0, 0, 0, 18.0, 0, 0, 4319159.0, 24.0, 28.0, 16.0] 

Я использую Tflearn, чтобы попытаться создать категорический модель от этих данных, например, каждая запись имеет 0 или 1 ярлык, и я пытаюсь тренировать модель для прогнозирования неизвестной записи является ли 0 или 1. Вот краткое изложение моего кода:

def main(): 
    ## Options ## 
    num_tf_layers = 10   # Number of fully connected layers, ex. softmax layer 
    num_tf_layer_nodes = 32  # Number of nodes in the fully connected layers 
    print_test_scores = 1  # Bool to print test set and predictions 
    use_validation_set = 0  # Bool to use testing set when fitting 
    num_tf_epochs = 10 
    tf_batch_size = 1 
    tf_learn_rate = 0.001 

    ## Opening files 

    print("Preparing labels...") 
    trainY = tflearn.data_utils.to_categorical(temp_train_Y, nb_classes=2) 
    if use_validation_set: 
     testY = tflearn.data_utils.to_categorical(temp_test_Y, nb_classes=2) 
    print('Forming input data...') 
    net = tflearn.input_data(shape=[None, len(trainX[0])]) 
    print('Creating fully connected layers...') 
    for i in range(num_tf_layers): 
     net = tflearn.fully_connected(net, num_tf_layer_nodes) 
    print('Creating softmax layer...') 
    net = tflearn.fully_connected(net, 2, activation='softmax') 
    print('Preparing regression...') 
    net = tflearn.regression(net, learning_rate=tf_learn_rate) 
    print('Preparing DNN...') 
    model = tflearn.DNN(net) 
    print('Fitting...') 
    if use_validation_set: 
     model.fit(trainX, trainY, n_epoch=num_tf_epochs, batch_size=tf_batch_size, validation_set=(testX, testY), show_metric=True) 
    else: 
     model.fit(trainX, trainY, n_epoch=num_tf_epochs, batch_size=tf_batch_size, show_metric=True) 
    print('Complete...') 

Я основано это прочь из следующего TFlearn example. Эта программа прекрасно работала на небольшом наборе данных, 250 0 и 250 1. У меня были высокие показатели точности в 80%, и я думал, что добавление тонны больше данных поможет повысить точность. Однако, добавив большие объемы данных, потеря, идущая на NaN, чрезвычайно быстро. Даже одна итерация через 450 000 быстро. После некоторых исследований я увидел, что у меня может быть слишком высокая скорость обучения, так как я оставил ее по умолчанию. Я установил его между 0,1 и 0,000001, и ничто не остановило потери от перехода на NaN. Я также попытался изменить размер партии между 1 и 1024 и изменить количество слоев между 3 и 20. Ничто не помогло. Есть ли у кого-нибудь идеи о том, что нужно изменить или как подойти к этому по-другому, чтобы исправить это?

Спасибо!

ответ

1

Я предполагаю, что ваша сеть страдает от vanishing gradient problem. Это не фундаментальная проблема с нейронными сетями - это проблема с методами обучения на основе градиента, вызванными определенными функциями активации. Давайте попробуем интуитивно понять проблему и причину этого.

Проблемных методы, основанные

Градиента узнать значение параметра понимания того, как небольшое изменение значения параметра будет влиять на выход сети. Если изменение значения параметра вызывает очень небольшое изменение в выходе сети - сеть просто не может эффективно изучить параметр, что является проблемой.

Это именно то, что происходит в проблеме исчезающего градиента - градиенты выхода сети по отношению к параметрам ранних слоев становятся чрезвычайно маленькими. Это причудливый способ сказать, что даже значительное изменение значения параметров для ранних слоев не оказывает большого влияния на выход. Давайте попробуем понять, когда и почему эта проблема происходит.

Причина

Исчезновение проблемы градиента зависит от выбора функции активации. Многие распространенные функции активации (например, сигмовидные или tanh) «выкалывают» свой вход в очень малый диапазон выходных сигналов очень нелинейным образом. Например, сигмоид отображает строку реальных чисел на «маленький» диапазон [0, 1]. В результате есть большие области входного пространства, которые отображаются в чрезвычайно маленький диапазон. В этих областях входного пространства даже значительное изменение входа приведет к небольшому изменению выхода - следовательно, градиент мал.

Это становится намного хуже, когда мы складываем несколько слоев таких нелинейностей друг на друга. Например, первый слой будет отображать большую область ввода в меньшую область вывода, которая будет отображаться на еще более мелкую область вторым слоем, который будет отображаться на еще меньшую область третьим уровнем и так далее. В результате даже значительное изменение параметров первого слоя не сильно меняет выход.

Мы можем избежать этой проблемы, используя функции активации, которые не обладают этим свойством «раздавливания» входного пространства в небольшую область. Популярным выбором является Rectified Linear Unit, который отображает x в max(0,x).

Ответ сделан с post на Quora.

Обновление: взрывается Градиент проблема

Иногда градиент становится намного больше в более ранних слоях, и он известен как взорвавшийся градиент проблемы. Например, если вы выбрали большие значения для весовых матриц и задали значения смещения таким образом, чтобы градиенты стали больше, тогда нейронная сеть будет страдать от взрывающейся проблемы градиента. Еще одна причина может заключаться в том, что ваши данные сами по себе являются большими, что приводит к очень большим шагам при градиентном спуске даже при низких уровнях обучения. Таким образом, вы можете нормализовать столбцы данных по столбцу перед обучением, чтобы избежать проблемы с градиентом взрыва.

Кроме того, более высокая скорость обучения может стать еще одной потенциальной причиной взрыва проблемы graidnet. Я рекомендую вам пройти через это article, обсуждая основные идеи об исчезающих и взрывающихся проблемах градиента и их решении.

Благодаря @timleathart за его проницательный комментарий.

+0

Проблема с исчезновением градиента не приводит к потере взорваться, а скорее приводит к застою при низком значении. Кроме того, он уже использует линейные активации, поэтому он не может действительно страдать от исчезающих градиентов. – timleathart

+0

@timleathart Исчезающая проблема градиента может возникать из-за функций активации, дифференциальные значения которых меньше 1 (сигмоида и tanh). Таким образом, есть вероятность, что OP использовал его. Я согласен с вашим первым моментом, и я обновляю свой ответ, чтобы отразить это. если вы отказались от этого, я настоятельно призываю вас пересмотреть. Благодарю. –

+2

OP не указал функцию активации для скрытых слоев, поэтому по умолчанию в TFLearn они будут линейными активациями 'f (x) = x', а не сигмовидными или tanh. Скорее всего, проблема в том, что его данные имеют очень высокие значения, что приводит к очень большим шагам при градиентном спуске даже при низких скоростях обучения. Они должны быть нормализованы колонкой перед обучением, что является советом, который я дал в ответ на исходный пост этого вопроса на datascience.stackexchange.com. – timleathart