2017-02-17 18 views
0

Когда я создаю кластер hadoop на основе vmware, и использую команду sbin/start-dfs.sh, я встречаю проблему с ssh. Он говорит,Проблема с настройкой Hadoop: «ssh: Не удалось разрешить имя хоста сейчас: Нет адреса, связанного с именем хоста»

SSH: не удалось разрешить имя хоста Теперь .: Нет-адрес, связанный с именем хоста

Я использовал vi /etc/hosts команду, чтобы проверить имя хоста и IP-адрес, и vi /etc/profile команды. Я гарантирую, что нет никакой неисправности.

+0

Является ли это единственным узлом или многоузловым кластером? – daemon12

+0

Это многоузловой кластер –

ответ

0

Несколько предложений

  1. Проверить, если в HDFS хостов-site.xml установлен правильно. Если вы работаете с настройкой одного хоста, и вы устанавливаете узловой хост в качестве локального хоста, вам нужно убедиться, что localhost сопоставлен с 127.0.0.1 в вашем/etc/hosts. Если вы устанавливаете несколько узлов, убедитесь, что вы используете FQDN каждого хоста в своей конфигурации и убедитесь, что каждое FQDN сопоставлено с правильным IP-адресом в/etc/hosts.
  2. Установка без пароля SSH. Примечание. Start -dfs.sh требует, чтобы у вас была установка SSH без пароля с хоста, где вы выполняете эту команду для остальной части узлов кластера. Подтвердите это ssh hostx date и он не запрашивает пароль.
  3. Проверьте имя хоста в сообщении об ошибке (возможно, вы не ввели полный журнал), для проблемного имени хоста выполните команду SSH вручную, чтобы убедиться, что она может быть разрешена. Если нет, проверьте/etc/hosts. Обычная/и т.д./настройка хостов выглядит

127.0.0.1 локального localhost.localdomain

:: 1 локального localhost.localdomain

172.16.151.224 host1.test.com host1

172.16.152.238 host2.test.com host2

172.16.153.108 host3.test.com host3