Моя машина имеет следующие спецификации:Почему мой GPU медленнее, чем процессор при обучении LSTM/RNN?
CPU: Xeon E5-1620 v4
GPU: Titan X (Pascal)
Ubuntu 16,04
Nvidia драйвер 375.26
CUDA Tookit 8,0
cuDNN 5.1
Я протестированный на следующие примерах Keras с Tensorflow как скопированный reference:
SCRIPT NAME GPU CPU
stated_lstm.py 5sec 5sec
babi_rnn.py 10sec 12sec
imdb_bidirectional_lstm.py 240sec 116sec
imbd_lstm.py 113sec 106sec
Моей видеокарта явно не выполняет мой процессор в моделях без LSTM.
SCRIPT NAME GPU CPU
cifar10_cnn.py 12sec 123sec
imdb_cnn.py 5sec 119sec
mnist_cnn.py 3sec 47sec
Неужели кто-нибудь еще испытал это?
Я мог бы увеличить размер партии как для моего gpu, так и для процессора, и оба они будут выполнять подобное, я ожидал бы, что gpu будет работать лучше. Также похоже, что мы получаем похожие времена, хотя моя графическая карта намного сильнее, чем 1050ti. Мой gpu явно превосходит мой процессор на cnns, но не lstm, почему? – agsolid
@agsolid Ваш процессор очень быстрый. Мой Core i3-4330 вычисляет imdb_lstm.py (batch = 128) в 110 секунд за эпоху против 25 секунд на графическом процессоре. Ваш GPU также быстрее моего. Разница заключается в процентном отношении использования (ваш ниже). –
Как я могу использовать свои GPU полную мощность? – agsolid