Это не представляется возможным с помощью стандартных Spark, исполняемые файлы. Spark DataFrame
привязан к конкретному SQLContext
, который использовался для его создания и недоступен за его пределами.
Есть инструменты, такие как Apache Zeppelin или Databricks, которые используют общий контекст, вводимый в разные сеансы. Таким образом вы можете обмениваться временными таблицами между разными сеансами или гостевыми языками.
Существуют и другие платформы, в том числе spark-jobserver
и Apache Ignite, которые предоставляют альтернативные способы совместного использования распределенных структур данных. Вы также можете посмотреть на Livy server.
Смотрите также: Share SparkContext between Java and R Apps under the same Master