Архитектура Spark полностью вращается вокруг концепции исполнителей и ядер. Я бы хотел увидеть практически, сколько исполнителей и ядер работает для моего искрового приложения, запущенного в кластере.Spark - Сколько исполнителей и ядер выделено для моей искровой работы
Я пытался использовать сниппет в моем приложении, но не повезло.
val conf = new SparkConf().setAppName("ExecutorTestJob")
val sc = new SparkContext(conf)
conf.get("spark.executor.instances")
conf.get("spark.executor.cores")
Есть ли способ, чтобы получить эти значения с помощью SparkContext
объекта или SparkConf
объекта и т.д ..
Вы можете посмотреть в Спарк UI. Перейдите на страницу http: //: 4040 и нажмите вкладку «Исполнители». Это варьируется между менеджерами кластеров. –
Кришна, вы могли бы получить? не стесняйтесь задавать вопросы –
Были ли вы в состоянии проверить? –