2016-10-07 10 views
1

Я запускаю распределенный тензор с примером CIFAR10 с до 128 рабочих и 1 сервером параметров.Каким образом пакеты данных тренировки распределяются среди работников в Tensorflow?

Мне было интересно, определяет ли FLAGS.batch_size размер каждой партии, отправленной каждому работнику, или если этот FLAGS.batch_size определяет размер каждой партии, отправленной всем работникам?

Эта разница имеет последствия для производительности, поскольку разделение партии на слишком много рабочих может привести к слишком большому объему коммуникации и недостаточному вычислению.

ответ

0

Размер партии в распределенном примере CIFAR10 относится к размеру партии для каждого GPU.

(Но это хороший вопрос - некоторые из синхронных моделей относятся к нему как размер совокупной партии!)

 Смежные вопросы

  • Нет связанных вопросов^_^