2016-09-09 5 views
0

У меня есть существующий кластер Hadoop с версией хауопа версии Hadoop 2.6.0-cdh5.4.2. У меня есть существующий Spark (версия 1.5.1), запущенный на этом кластере. Тем не менее, я хочу использовать Spark 2.0/Spark 2.1 с некоторыми модификациями кода.Как построить искру для работы на существующем Hadoop 2.6 Кластер с CDH

Update

Я узнал от cloudera forums, что в теории, я мог бы просто скачать Спарк-2,0 (+ Hadoop-2,6), изменил HADOOP_CONF_DIR на conf/spark-env.sh и сделать что-то вроде

./bin/spark-shell --master yarn 

и в основном, у меня будет Spark-2.0, работающий на моем кластере. Однако он все еще не работает. У меня заканчиваются потенциальные решения, поэтому я пришел сюда.

+0

Это кластер, управляемый CM? Если это так, теперь доступен новый пакет Spark 2.0 (бета). –

ответ

0

В ближайшее время от Cloudera будет доступна бета-версия Spark 2.0. Вы сможете легко установить его на кластеры, управляемые Cloudera Manager, посредством посылки.

 Смежные вопросы

  • Нет связанных вопросов^_^