Я полный новичок в Spark и просто начал изучать больше об этом. Я выбрал более длинный путь, не устанавливая hadoop, используя какой-либо дистрибутив CDH, и я установил Hadoop с сайта Apache и сам уст
начало работы с искровым jobserver я узнал, что кадры данных могут быть flattend как Spark flattening out dataframes, но это по-прежнему не выполняет https://github.com/spark-jobserver/spark-jobserver
Я хочу, чтобы RDD из искрового задания сохранялся, чтобы он мог использоваться всеми последующими заданиями с использованием Spark Job Server. Вот что я пробовал: Работа 1: package spark.jobserver
i
Я хочу написать модульные тесты для искровых заданий, выполненных в искробезопасном сервере. Это прекрасно работает, если мне не нужно получить доступ к config, например. проверить это для конкретных