У меня есть ситуация, когда я хочу выполнить системный процесс для каждого рабочего в Spark. Я хочу, чтобы этот процесс запускался на каждом компьютере один раз. В частности, этот процесс запускает демон, который должен выполняться до завершения остальной части моей программы. В идеале это должно выполняться до того, как я прочитал данные.Возможно ли выполнить команду для всех работников в Apache Spark?
Я нахожусь на Spark 2.0.2 и использую динамическое распределение.
Дубликат: http://stackoverflow.com/questions/37343437/how-to-run-a-function-on-all-spark-workers-before-processing-data-in-pyspark –