Я столкнулся с ситуацией, когда я хотел бы выполнить «поиск» в конвейере Spark и/или Spark Streaming (на Java). Поиск несколько сложный, но, к счастью, у меня есть некоторые существующие Spark-конвейеры (потенциально DataFrames), которые я мог бы повторно использовать.Возможно ли получить и использовать JavaSparkContext из задачи?
Для каждой входящей записи я хотел бы потенциально запустить искру задания из задачи, чтобы получить необходимую информацию, чтобы украсить ее.
С учетом последствий для работы, будет ли это хорошей идеей?
Не считая последствий для работы, возможно ли это?