Так что вам нужно, чтобы сделать эти вещи, чтобы сделать это,
В Спарк 2.0.2 у нас есть SparkSession, который содержит экземпляр SparkContext, а также экземпляр sqlContext.
Поэтому шаги были бы:
Шаг 1: Создание SparkSession
val spark = SparkSession.builder().appName("MyApp").master("local[*]").getOrCreate()
Шаг 2: Загрузка из базы данных в случае Mysql.
val loadedData=spark
.read
.format("jdbc")
.option("url", "jdbc:mysql://localhost:3306/mydatabase")
.option("driver", "com.mysql.jdbc.Driver")
.option("mytable", "mydatabase")
.option("user", "root")
.option("password", "toor")
.load().createOrReplaceTempView("mytable")
Шаг 3: Теперь вы можете запустить SQLQuery так же, как вы делаете в SqlDatabase.
val dataFrame=spark.sql("Select * from mytable")
dataFrame.show()
P.S: Было бы лучше, если вы используете DataFrame Api или даже лучше, если DataSet Апи, но для тех, вам нужно пройти через документации.
Ссылка Документация: https://spark.apache.org/docs/2.0.0/api/scala/index.html#org.apache.spark.sql.Dataset
Итак, в чем проблема? Вы получаете ошибку? –
error: not found: value sqlContext –
Я получаю исключение выше при выполнении команды –