Я запускаю распределенный тензор с примером CIFAR10 с до 128 рабочих и 1 сервером параметров.Каким образом пакеты данных тренировки распределяются среди работников в Tensorflow?
Мне было интересно, определяет ли FLAGS.batch_size размер каждой партии, отправленной каждому работнику, или если этот FLAGS.batch_size определяет размер каждой партии, отправленной всем работникам?
Эта разница имеет последствия для производительности, поскольку разделение партии на слишком много рабочих может привести к слишком большому объему коммуникации и недостаточному вычислению.