2016-10-13 19 views
1

Я пытаюсь установить искру с помощью sparklyr иУстановка Спарк с помощью sparklyr и spark_install ошибку

spark_install 

и я получаю следующее сообщение об ошибке.

C:\dsvm\tools\UnxUtils\usr\local\wbin\tar.exe: Cannot use compressed or remote archives 
C:\dsvm\tools\UnxUtils\usr\local\wbin\tar.exe: Error is not recoverable: exiting now 
running command 'tar.exe -zxf "C:\Users\MyPC\AppData\Local\rstudio\spark\Cache/spark-2.0.1-bin-hadoop2.7.tgz" -C "C:/Users/LeviVM/AppData/Local/rstudio/spark/Cache"' had status 2�tar.exe -zxf "C:\Users\MyPC\AppData\Local\rstudio\spark\Cache/spark-2.0.1-bin-hadoop2.7.tgz" -C "C:/Users/LeviVM/AppData/Local/rstudio/spark/Cache"� returned error code 2Installation complete. 
cannot open file 'C:\Users\MyPc\AppData\Local\rstudio\spark\Cache/spark-2.0.1-bin-hadoop2.7/conf/log4j.properties': No such file or directoryFailed to set logging settingscannot open file 'C:\Users\MyPc\AppData\Local\rstudio\spark\Cache/spark-2.0.1-bin-hadoop2.7/conf/hive-site.xml': No such file or directoryFailed to apply custom hive-site.xml configuration 

Тогда я скачал искру из Интернета и использовать

spark_install_tar 

Это дает мне ту же ошибку:

C:\dsvm\tools\UnxUtils\usr\local\wbin\tar.exe: Cannot use compressed or remote archives 
C:\dsvm\tools\UnxUtils\usr\local\wbin\tar.exe: Error is not recoverable: exiting now 

Любые советы?

Заранее спасибо.

+0

У меня есть неопределенное воспоминание о том, что пользователи Windows имеют особые требования, чтобы получить sparklyr для установки. Вы должны сделать некоторые поиски в установках windows искры. Я не уверен, что вы еще не готовы задавать какие-либо вопросы R. –

+0

Спасибо. Я потратил огромное количество времени на поиск этого, но безрезультатно. –

+0

Затем вы должны привести материал, за которым вы следовали, при попытке установить искру. У вас, похоже, нет log4j. Когда я искал, я сразу же обнаружил это на SO с поиском Google: Как установить Spark log4j путь в автономном режиме на окнах? –

ответ

0

Когда я модернизировал sparklyr с помощью

devtools::install_github("rstudio/sparklyr") 

Вопрос ушел

0

spark_install_tar (= файл обработан "путь/к/spark_hadoop.tar")

если вы все еще получаете сообщение об ошибке, то распаковываем параметр tar и установленная переменная окружения spark_home указывает на путь unt_hadoop untar.

Затем попробуйте выполнить следующее в консоли R. библиотека (sparklyr) sc < - spark_connect (master = "local")