2015-05-16 5 views
0

Я пытаюсь настроить Hadoop/Spark/Sparkling Water на чистую машину Ubuntu 14.04 на частном облаке на Амазонке. Делать все как корень. Я успешно apt-get java-6, scala 2.10.5, затем wget и распакую hadoop 2.6, искру 1.2.1 и игристую воду 0.2.1-47.Установка игристой воды на чистую машину ubuntu

Я экспортировал HADOOP_HOME и SPARK_HOME в нужные директории, и побежал бен/игристое скорлупу:

import org.apache.spark.h2o._ 
import org.apache.spark.examples.h2o._ 
val h2oContext = new H2OContext(sc).start() 

Там тогда следует огромное количество исходной задачи X/отделочного вывода задачи X, а затем

java.lang.IllegalArgumentException: Cannot execute H2O on all Spark executors: 
    numH2OWorkers = -1" 
    executorStatus = (0,false),(1,false),(2,false),(0,false),(1,false),(2,false),(1,false),(1,false),(1,false),(1,false),(1,false),(1,false),(1,false),(1,false),(0,false),(1,false),(0,false),(1,false),(1,false),(0,false),(1,false),(0,false),(1,false),(1,false),(0,false),(0,false),(1,false),(1,false),(0,false),(0,false),(2,false),(2,false),(1,false),(0,false),(1,false),(0,false),(2,false),(1,false),(2,false),(1,false),(0,false),(1,false),(2,false),(0,false),(1,false),(2,false),(1,false),(2,false),(0,false),(2,false),(1,false),(0,false),(1,false),(0,false),(1,false),(2,false),(0,false),(2,false),(1,false),(1,false),(0,false),(2,false),(0,false),(2,false),(1,false),(1,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(1,false),(1,false),(0,false),(2,false),(0,false),(2,false),(1,false),(1,false),(0,false),(2,false),(0,false),(2,false),(1,false),(0,false),(1,false),(2,false),(0,false),(1,false),(2,false),(1,false),(0,false),(2,false),(0,false),(2,false),(1,false),(2,false),(1,false),(2,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(1,false),(2,false),(0,false),(1,false),(0,false),(2,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(0,false),(1,false),(2,false),(1,false),(2,false),(0,false),(0,false),(1,false),(2,false),(2,false),(1,false),(1,false),(0,false),(0,false),(2,false),(2,false),(1,false),(0,false),(1,false),(2,false),(0,false),(2,false),(1,false),(0,false),(2,false),(1,false),(2,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(2,false),(1,false),(1,false),(0,false),(2,false),(0,false),(1,false),(2,false),(0,false),(1,false),(2,false),(2,false),(1,false),(0,false),(0,false),(2,false),(1,false),(2,false),(0,false),(0,false),(1,false),(2,false),(1,false),(2,false),(1,false),(2,false),(0,false),(1,false),(0,false),(2,false),(1,false),(0,false),(1,false),(2,false),(0,false),(2,false),(0,false),(1,false),(0,false),(1,false),(2,false),(1,false),(2,false) 
at org.apache.spark.h2o.H2OContext.start(H2OContext.scala:112) 
(...) 

Может ли кто-нибудь указать, что я могу делать неправильно и/или отсутствует? Если необходимо/полезно, я могу опубликовать свой точный сценарий настройки.

+0

Вы столкнулись с этой ошибкой? - http://stackoverflow.com/questions/31236639/h2o-sparkling-water-error-while-creating-h2o-cloud – PRP

ответ

0

Я решил это, создав проект, а не загружая почтовый индекс. Настройка, которая в настоящее время работает для меня (я не утверждаю, что это единственная работа): openjdk7, hadoop 2.6, spark 1.2.0. Примечание HADOOP_HOME и SPARK_HOME должны быть экспортированы переменные оболочки, а также частные IP устройства должен быть добавлен в/и т.д./хостов таблицы, что может быть сделано с:

echo $(ifconfig eth0 | grep 'inet addr:' | cut -d: -f2 | cut -d' ' -f1) $(hostname) localhost >> /etc/hosts 

Затем мерзавца клон проект игристое воды и ./ gradlew в каталоге проекта.

 Смежные вопросы

  • Нет связанных вопросов^_^