2015-12-26 5 views
1

Я только что начал изучать apache spark. Первое, что я сделал, я попытался установить на моей машине spark. Я загрузил предварительно построенную искру 1.5.2 с помощью hadoop 2.6. Когда я побежал spark shell я получил следующий errosApache Spark установка на окна 7 32 бит

java.lang.RuntimeException: java.lang.NullPointerException 
     at  org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522) 
     at org.apache.spark.sql.hive.client.ClientWrapper.<init> (ClientWrapper.scala:171) 
    at  org.apache.spark.sql.hive.HiveContext.executionHive$lzycompute(HiveContext.scala :163) 
     at  org.apache.spark.sql.hive.HiveContext.executionHive(HiveContext.scala:161) 
     at org.apache.spark.sql.hive.HiveContext.<init>(HiveContext.scala:168) 
     at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) 
     at sun.reflect.NativeConstructorAccessorImpl.newInstance(Unknown Source) 
     at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(Unknown Source) 
    at java.lang.reflect.Constructor.newInstance(Unknown Source) 
    at org.apache.spark.repl.SparkILoop.createSQLContext(SparkILoop.scala:1028) 
    at $iwC$$iwC.<init>(<console>:9) 
    at $iwC.<init>(<console>:18) 
    at <init>(<console>:20) 
    at .<init>(<console>:24) 
    at .<clinit>(<console>) 
    at .<init>(<console>:7) 
    at .<clinit>(<console>) 
    at $print(<console>) 
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
    at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) 
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) 
    at java.lang.reflect.Method.invoke(Unknown Source) 
    at org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065) 
    at org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1340) 
    at org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840) 
    at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:871) 
    at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:819) 
    at org.apache.spark.repl.SparkILoop.reallyInterpret$1(SparkILoop.scala:857) 
    at org.apache.spark.repl.SparkILoop.interpretStartingWith(SparkILoop.scala:902) 
    at org.apache.spark.repl.SparkILoop.command(SparkILoop.scala:814) 
    at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:132) 
    at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:124) 
    at org.apache.spark.repl.SparkIMain.beQuietDuring(SparkIMain.scala:324) 
    at org.apache.spark.repl.SparkILoopInit$class.initializeSpark(SparkILoopInit.scala:124) 
    at org.apache.spark.repl.SparkILoop.initializeSpark(SparkILoop.scala:64) 
    at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1$$anonfun$apply$mcZ$sp$5.apply$mcV$sp(SparkILoop.scala:974) 

Я искал эту ошибку и получил, что я должен загрузить winutils.exe, который я сделал, я установил путь HADOOP_HOME = "c:\Hadoop", а затем побежал команду

C:\Hadoop\bin\winutils.exe chmod 777 /tmp/hive 

, но я получил следующее сообщение об ошибке

This version of C:\Hadoop\bin\winutils.exe is not compatible with the version of 
Windows you're running. Check your computer's system information to see whether 
you need a x86 (32-bit) or x64 (64-bit) version of the program, and then contac 
t the software publisher. 

Я пытался найти 32-разрядную версию winutils.exe, но я не смог получить его .. Пожалуйста, помогите мне с этой установкой. Заранее спасибо

ответ

 Смежные вопросы

  • Нет связанных вопросов^_^