Я создаю кластер с Hortnworks (HDP 2.4). У меня есть 4 узла кластера, каждый из которых имеет (16 ГБ-ОЗУ, 8-ЦП). У меня также есть Spark с Zeppelin Notebook, чтобы использовать python (pyspark).Увеличение искровых исполнителей на Zeppelin
Моя проблема: я начал с конфигурации из 3 узлов, и позже я добавил еще один новый узел (так полностью 4, как было сказано ранее), так как количество исполнителей на Spark остается «3».
Я вижу в Интернете, что количество исполнителей устанавливается в SPARK_EXECUTOR_INSTANCES
, но этот параметр присутствует только в spark-env template
конфигурации страницы Spark в пользовательском интерфейсе Ambari. Кажется, он требует, чтобы YARN принял решение об исполнителях, но в YARN я ничего не нашел об этом.
Определённо, Как я могу увеличить количество исполнителя в моем Hortonworks Hadoop кластера с использованием Ambari?
Вы используете искру с менеджером кластеров YARN –
Я думаю, да ... как проверить эту конфигурацию? –
Вы можете сделать это двумя способами: установить «spark.dynamicAllocation.enabled» в true или установить количество экземпляров исполнителя «spark.executor.instances» на некоторый номер, который вы хотите –