В соответствии с моим понятием искры не обязательно должны устанавливаться на всех узла в кластере пряжи. Инсталляция Spark требуется только на узле (обычно узле шлюза), откуда запускается скрипт spark-submit.Как искрообразование jar (../spark-2.0.1-bin-hadoop2.6/jars) распространяется на физический рабочий узел в кластере YARN
В соответствии с искровым руководство по программированию
Чтобы сделать свечи во время выполнения банки доступны из стороны ПРЯЖИ, вы можете указать spark.yarn.archive или spark.yarn.jars.
Как библиотеки, содержащие код Спарка (т.е. искрового выполнение банка доступен в ../spark-2.0.1-bin-hadoop2.6/jars) получить распространены физический труд Node (где запущен исполнитель) в YARN.
Thank you.
Таким образом, это означает, что бачок с искровым исполнением локально копируется на весь рабочий узел, где исполнители запускаются с пути, обозначенного «spark.yarn.jars». если да, то это происходит на основе выполнения каждого искрового приложения. –
Он считывается непосредственно из hdfs и создается, когда драйвер создает задание, а исполнитель назначается на узле. –