2016-05-25 4 views
2

Я сконфигурировал sparkr, как правило, из учебников, и все работало. Я был в состоянии прочитать базу данных с read.df, но вдруг ничего не работает, и появляется следующее сообщение об ошибке:JVM не готов через 10 секунд

Ошибка в sparkR.init (мастер = «локальный»): JVM не готов через 10 секунд

Почему это внезапно появляется? Я читал других пользователей с той же проблемой, но предоставленные решения не сработали. Ниже мой код:

Sys.setenv(SPARK_HOME= "C:/Spark") 
Sys.setenv(HADOOP_HOME = "C:/Hadoop") 
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths())) 
library(SparkR) 

#initialeze SparkR environment 
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.11:1.2.0" "sparkr-shell"') 
Sys.setenv(SPARK_MEM="4g") 

#Create a spark context and a SQL context 
sc <- sparkR.init(master = "local") 
sqlContext <- sparkRSQL.init(sc) 
+0

Понимая, что ваша установка выполняется правильно в окнах, это явление является обычным явлением в окнах, когда одновременно запускается несколько других вещей/программ; здесь JVM в первом случае не получит достаточного количества памяти, и он начнет рассылать вышеуказанный. Если вы повторно запустите контекст, он будет работать нормально, убедитесь, что у вас не менее 500 МБ памяти не используется, иначе закрывайте несколько других вещей, которые потребляют больше памяти. – pmavuluri

ответ

0

Попробуйте сделать несколько вещей ниже:

  1. c:/Windows/System32/ Проверьте есть в PATH.

  2. Проверьте, действительно ли у spark-submit.cmd разрешения на выполнение.

  3. Если оба значения верны и даже если они дают ту же ошибку, то delete spark directory и снова создайте свежий файл unzipping spark gzip.

+0

Как проверить, есть ли у spark-submit.cmd правильные разрешения на выполнение? –

0

Я новичок в R, и я решил ту же проблему «JVM не готова через 10 секунд», установив JDK (версии 7+) перед установкой sparkr в моем макинтоше. И теперь это работает хорошо. Надеюсь, это поможет вам в решении вашей проблемы.

+0

Thank Caroline Su. Сегодня мне нужно было снова использовать sparkR и давать ту же ошибку. Я удалю jdk9 и установил 7. На данный момент он работает. –

+0

Добро пожаловать. Я проглядываю, что это работает для вашей проблемы. –