2015-02-28 3 views
0

У меня есть песочница Hortonworks с Hadoop 2.2.0, и я установил технический обзор Apache-spark в песочнице.Пример Wordcount на пряжу в Hortonworks failing

Хотя я могу запустить пример искры Java в локальном режиме, но я не могу запустить пример Java в режиме пряжи-клиент.

Вот шаги, которые я использовал для исполнения:

  1. В среде IDE Eclipse, я создал проект Java и под директором Src сделал файл JavaWordCount и код был взят из образца примера, который поставляется с Apache искрой ,

  2. Затем я создал банку, используя Eclipse-> export -> как банку, и имел этот файл jar в моей локальной системе.

  3. Затем на терминале я пошел, чтобы зажечь домашний каталог и дал следующую команду:

    [[email protected] spark-1.2.0.2.2.0.0-82-bin-2.6.0.2.2.0.0-2041]$ b**in/spark-submit --class JavaWordCount --master yarn-client --num-executors 1 --driver-memory 512m --executor-memory 512m --executor-cores 1 /home/train/Desktop/sparkwc3.jar /README.md /out1 
    

    где мой файл находится на HDFS.

  4. Я получаю следующее сообщение об ошибке:

    15/02/28 11:04:02 ERROR cluster.YarnClientClusterScheduler: Lost executor 2 on sandbox.hortonworks.com: remote Akka client disassociated 
    15/02/28 11:04:02 INFO scheduler.TaskSetManager: Re-queueing tasks for 2 from TaskSet 0.0 
    15/02/28 11:04:02 WARN scheduler.TaskSetManager: Lost task 0.3 in stage 0.0 (TID 3, sandbox.hortonworks.com): ExecutorLostFailure (executor 2 lost) 
    15/02/28 11:04:02 ERROR scheduler.TaskSetManager: Task 0 in stage 0.0 failed 4 times; aborting job 
    15/02/28 11:04:02 INFO cluster.YarnClientClusterScheduler: Removed TaskSet 0.0, whose tasks have all completed, from pool 
    15/02/28 11:04:02 ERROR cluster.YarnClientSchedulerBackend: Asked to remove non-existent executor 2 
    15/02/28 11:04:02 WARN remote.ReliableDeliverySupervisor: Association with remote system [akka.tcp://[email protected]:34111] has failed, address is now gated for [5000] ms. Reason is: [Disassociated]. 
    15/02/28 11:04:02 INFO cluster.YarnClientClusterScheduler: Cancelling stage 0 
    15/02/28 11:04:02 INFO scheduler.DAGScheduler: Job 0 failed: collect at JavaWordCount.java:68, took 20.451136 s 
    Exception in thread "main" org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 0.0 failed 4 times, most recent failure: Lost task 0.3 in stage 0.0 (TID 3, sandbox.hortonworks.com): ExecutorLostFailure (executor 2 lost) 
    Driver stacktrace: 
    at org.apache.spark.scheduler.DAGScheduler.org$apache$spark$scheduler$DAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1214) 
    at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1203) 
    at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1202) 
    at scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59) 
    at scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:47) 
    at org.apache.spark.scheduler.DAGScheduler.abortStage(DAGScheduler.scala:1202) 
    at org.apache.spark.scheduler.DAGScheduler$$anonfun$handleTaskSetFailed$1.apply(DAGScheduler.scala:696) 
    at org.apache.spark.scheduler.DAGScheduler$$anonfun$handleTaskSetFailed$1.apply(DAGScheduler.scala:696) 
    at scala.Option.foreach(Option.scala:236) 
    at org.apache.spark.scheduler.DAGScheduler.handleTaskSetFailed(DAGScheduler.scala:696) 
    at org.apache.spark.scheduler.DAGSchedulerEventProcessActor$$anonfun$receive$2.applyOrElse(DAGScheduler.scala:1420) 
    at akka.actor.Actor$class.aroundReceive(Actor.scala:465) 
    at org.apache.spark.scheduler.DAGSchedulerEventProcessActor.aroundReceive(DAGScheduler.scala:1375) 
    at akka.actor.ActorCell.receiveMessage(ActorCell.scala:516) 
    at akka.actor.ActorCell.invoke(ActorCell.scala:487) 
    at akka.dispatch.Mailbox.processMailbox(Mailbox.scala:238) 
    at akka.dispatch.Mailbox.run(Mailbox.scala:220) 
    at akka.dispatch.ForkJoinExecutorConfigurator$AkkaForkJoinTask.exec(AbstractDispatcher.scala:393) 
    at scala.concurrent.forkjoin.ForkJoinTask.doExec(ForkJoinTask.java:260) 
    at scala.concurrent.forkjoin.ForkJoinPool$WorkQueue.runTask(ForkJoinPool.java:1339) 
    at scala.concurrent.forkjoin.ForkJoinPool.runWorker(ForkJoinPool.java:1979) 
    at scala.concurrent.forkjoin.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:107) 
    [[email protected] spark-1.2.0.2.2.0.0-82-bin-2.6.0.2.2.0.0-2041]$ 
    
+0

Wondeful stracktrace ... разве мы все не любим такие стеки? Слишком много слоев фреймворков ... :-( –

ответ

0

Вероятно, исполнитель разбился. На этой странице на сайте Spark, http://spark.apache.org/docs/latest/running-on-yarn.html обсуждается, как просмотреть различные журналы, чтобы найти эту проблему. Вы также можете поэкспериментировать с флажками вызова и свойствами, которые обсуждались.

Например, что произойдет, если вы опустите флажки --driver-memory 512m --executor-memory 512m --executor-cores 1?

И, наконец, существует ли путь для входа в HDFS и есть ли у вас разрешения на чтение? У вас есть разрешения на чтение для /, поэтому вы можете создать /out1? (Это не должно вызывать эту ошибку, однако ...)

+0

Спасибо @Dean. Разрешения на HDFS в порядке. Когда я запускаю без аргументов, это ошибка, которую я получаю: '15/02/28 22:34:03 WARN cluster. YarnClientClusterScheduler: начальное задание не приняло никаких ресурсов, проверьте свой пользовательский интерфейс кластера, чтобы убедиться, что работники зарегистрированы и имеют достаточную память. –

+0

Вы можете просматривать форумы Cloudera, так как они поддерживают Spark. Я не работаю с YARN, чтобы иметь больше предложений предлагать. –

 Смежные вопросы

  • Нет связанных вопросов^_^