2016-09-01 2 views
2

Я создаю приложение Spark, в котором я отправляю несколько заданий (pyspark). Я использую тему запускать их параллельно, а также я устанавливаю: conf.set («spark.scheduler.mode», «FAIR»)spark schedulingMode

Тем не менее, я вижу задания выполняются последовательно в FIFO образом. Я что-то упустил?

EDIT: После записи в список Спарка рассылки, я получил пару вещей больше: FairSchedulingAlgorithm

Я был полностью отсутствует этот последний пункт

+0

[Видимо, нет] (http://spark.apache.org/docs/latest/job-scheduling.html#scheduling-within-an-application). –

+1

Я прочитал документацию, но я могу заверить вас, что они все еще работают в режиме FIFO, без каких-либо циклических ограничений. –

+0

Что [мастер] (http://spark.apache.org/docs/latest/submitting-applications.html# master-urls) url вы прошли? –

ответ

0

Видимо, искра не поддерживает многопоточность для всех видов работ. Вы можете подать заявку параллельно, если это искрообразование .

Внутри данного приложения Spark (экземпляр SparkContext) несколько параллельных заданий могут выполняться одновременно, если они были отправлены из отдельных потоков. Под «заданием» в этом разделе мы подразумеваем действие Spark (например, сохранение, сбор) и любые задачи, которые необходимо выполнить для оценки этого действия. Планировщик Spark полностью потокобезопасен и поддерживает этот вариант использования, чтобы включить приложения, которые обслуживают несколько запросов (например, запросы для нескольких пользователей).

, пожалуйста, следуйте этим link

0

Сколько исполнителей у вас есть?

Если у вас 1 исполнитель, то FIFO такой же, как FAIR.

Я говорю так, потому что по умолчанию автономный режим создает 2 исполнителя, а в режиме «кластера» вы должны взять 1 для драйвера и 1 для исполнителя.

Для выполнения 2 заданий в режиме кластера вам нужно 4 исполнителя.