Я сконфигурировал sparkr
, как правило, из учебников, и все работало. Я был в состоянии прочитать базу данных с read.df
, но вдруг ничего не работает, и появляется следующее сообщение об ошибке:JVM не готов через 10 секунд
Ошибка в sparkR.init (мастер = «локальный»): JVM не готов через 10 секунд
Почему это внезапно появляется? Я читал других пользователей с той же проблемой, но предоставленные решения не сработали. Ниже мой код:
Sys.setenv(SPARK_HOME= "C:/Spark")
Sys.setenv(HADOOP_HOME = "C:/Hadoop")
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library(SparkR)
#initialeze SparkR environment
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.11:1.2.0" "sparkr-shell"')
Sys.setenv(SPARK_MEM="4g")
#Create a spark context and a SQL context
sc <- sparkR.init(master = "local")
sqlContext <- sparkRSQL.init(sc)
Понимая, что ваша установка выполняется правильно в окнах, это явление является обычным явлением в окнах, когда одновременно запускается несколько других вещей/программ; здесь JVM в первом случае не получит достаточного количества памяти, и он начнет рассылать вышеуказанный. Если вы повторно запустите контекст, он будет работать нормально, убедитесь, что у вас не менее 500 МБ памяти не используется, иначе закрывайте несколько других вещей, которые потребляют больше памяти. – pmavuluri