Я создаю приложение Spark, в котором я отправляю несколько заданий (pyspark). Я использую тему запускать их параллельно, а также я устанавливаю: conf.set («spark.scheduler.mode», «FAIR»)spark schedulingMode
Тем не менее, я вижу задания выполняются последовательно в FIFO образом. Я что-то упустил?
EDIT: После записи в список Спарка рассылки, я получил пару вещей больше: FairSchedulingAlgorithm
- искры из не круговой: https://github.com/apache/spark/blob/master/core/src/main/scala/org/apache/spark/scheduler/SchedulingAlgorithm.scala#L43
- Там нет упреждения, это означает, что даже с помощью планировщика .mode 'FAIR', вы не можете быть уверены, что каждый этап будет выполнен «бит». Планирование выполняется только тогда, когда доступны ресурсы (ядро).
Я был полностью отсутствует этот последний пункт
[Видимо, нет] (http://spark.apache.org/docs/latest/job-scheduling.html#scheduling-within-an-application). –
Я прочитал документацию, но я могу заверить вас, что они все еще работают в режиме FIFO, без каких-либо циклических ограничений. –
Что [мастер] (http://spark.apache.org/docs/latest/submitting-applications.html# master-urls) url вы прошли? –