У меня есть установка Hadoop на моей локальной машине и на моем подчиненном узле. Я хочу использовать его для многоузлового кластера (master + 1 slave в настоящее время). Я также прочитал hadoop multinode tutorial и попытаюсь запустить мой хаос на главном и подчиненном. У меня есть следующая конфигурация моей системы. После того, как я обновил hdfs-site.xml
и core-site.xml
, я определяю мастера и ведомые устройства на локальной машине. В masters
я поставил localhost
, в slaves
я помещал имя подчиненного узла ... На ведомом я только определяемом в slaves
с localhost
После этого я выполняюHadoop не распознает подчиненный
[email protected]:/usr/local/hadoop-2.7.2$ sbin/start-dfs.sh
в локальном хранилище. Hadoop ответ в терминале, кажется, хорошо:
Starting namenodes on [localhost]
localhost: starting namenode, logging to /usr/local/hadoop-2.7.2/logs/hadoop-hduser-namenode-user.out
[email protected]: starting datanode, logging to /usr/local/hadoop-2.7.2/logs/hadoop-hduser-datanode-slavename.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop-2.7.2/logs/hadoop-hduser-secondarynamenode-user.out
Наконец я иду в localhost:50070
, и я не видел ни одного подчиненного узла под LiveNodes
Я полагаю, я не есть подключение к моему подчиненному устройству, во всяком случае, я не получил сообщение об ошибке во время запуска кластера. После того, как я делаю остановку ДХ, я действительно получил сообщение:
Stopping namenodes on [localhost]
localhost: stopping namenode
[email protected]: no datanode to stop
Stopping secondary namenodes [0.0.0.0]
0.0.0.0: stopping secondarynamenode
Следовательно мой подчиненный узел не подключен к мастеру ....
Я также вижу в моем файле журнала в журналах. Сообщение об ошибке:
java.io.IOException: Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
Как я могу подключить своего хозяина к моему рабом?
PS Я могу использовать hadoop как ведущий без каких-либо подчиненных устройств, я также могу запустить искровой код с помощью ввода локальной установки в локальном режиме ... Основная проблема - это просто подчиненный.
спасибо, это не поможет. Сообщение ниже для вас содержит полные сообщения об ошибках из обоих файлов журнала (для DataNode и для SecondaryNameNode). Не могли бы вы взглянуть? Спасибо – Guforu
Обратите внимание: [вопрос] (http://stackoverflow.com/questions/21732988/error-org-apache-hadoop-hdfs-server-namenode-secondarynamenode-exception-in-doc). Это может вам помочь. –
Да, я тоже нашел это. благодаря – Guforu