Я ищу в код для distributed inception model in TF, в котором у меня ниже вопросы об использовании tf.train.Supervisor.start_queue_runners
в inception_distributed_train.py:Распределенная TensorFlow: о использовании tf.train.Supervisor.start_queue_runners
Почему нам необходимо явно позвонить
sv.start_queue_runners()
в строке264
и строке269
в inception_distributed_train.py? В API doc. of start_queue_runners, я вижу, что нет необходимости в таких вызовов из-за:Обратите внимание, что бегуны очереди, собранные в графе ключевого QUEUE_RUNNERS уже начался автоматически при создании сеанса с наблюдателем, так что если у вас есть неубранные бегуны очереди, чтобы начать , вам не нужно вызывать это явно.
Я заметил, что значения
queue_runners
в призывеsv.start_queue_runners
различны по линии264
и линии269
в inception_distributed_train.py. Но неchief_queue_runners
также в сбореtf.GraphKeys.QUEUE_RUNNERS
(всеQUEUE_RUNNERS
получены в строке263
)? Если так, тогда нет необходимости в строке269
, так какchief_queue_runners
уже отправлен в строку264
.Кроме того, не могли бы вы объяснить мне или показать мне некоторые ссылки о том, какие очереди создаются в
tf.train.Supervisor
?
Спасибо за ваше время!
Спасибо за ваш ответ, Ярослав! Я задал вопросы для получения быстрых ответов, и я проверю эти проблемы. Кроме того, ваша информация о переходе на FooSession ценна. –