2017-01-18 10 views
0

У нас есть 4 datanode HDFS-кластера ... на каждом узле данных около 98 гб имеется большое количество пространства ... но когда я смотрю на информацию о датаном .. это только используя около 10GB и бежит из космоса ...Hadoop: HDFS Cluster работает вне пространства, хотя пространство доступно

Data Node information

Как мы можем сделать его использовать все 98gb, а не бежать из космоса, как показано на изображении

это конфигурация дискового пространства

Disk space distribution

это HDFS-site.xml на имя узла

<property> 
     <name>dfs.name.dir</name> 
     <value>/test/hadoop/hadoopinfra/hdfs/namenode</value> 
</property> 

это является HDFS-site.xml под узлом данных

<property> 
     <name>dfs.data.dir</name> 
     <value>/test/hadoop/hadoopinfra/hdfs/datanode</value> 
</property> 

Eventhough/тест имеет 98GB и hdfs сконфигурирован для его использования, он не использует его

Отсутствует что-либо при изменении конфигурации? И как мы можем убедиться, что 98GB используется?

+0

Просто мысль, является вашим фактором репликации установить значение по умолчанию? Я знаю, что по умолчанию 3, но похоже, что вы используете 10x объем памяти. Я не на 100% полагаю, копируются ли копии копий блоков как «фактическое» хранилище или нет ... – Fredulom

+0

Если это не так, действительно ли каталог, указанный вами в свойстве 'dfs.data.dir', существует ? Согласно веб-сайту Apache ... '... Каталоги, которые не существуют, игнорируются.' – Fredulom

+0

существует такой каталог, если он не существует ... start -dfs.sh будет исчезать, но он запускается правильно, но все еще используется old ... location, которое имеет 14gb – user2359997

ответ

0

Согласно this Hortonworks Community Portal link, шаги по изменению вашего каталога узла данных заключаются в следующем:

  1. Остановите кластер.
  2. Перейдите в конфигурацию HDFS ambari и отредактируйте конфигурацию каталога данных: Remove/hadoop/hdfs/data и/hadoop/hdfs/data1. Добавить [new directory location].
  3. Войдите в каждый datanode (через SSH) и скопируйте содержимое/data и/data1 в новый каталог.
  4. Изменение права собственности на новый каталог и все под ним на «hdfs».
  5. Запустить кластер.

Я предполагаю, что вы технически уже до шага 2, так как вы отображаются ваши правильно настроены основные-site.xml файлы в исходном вопросе. Убедитесь, что вы сделали другие шаги, и что все услуги Hadoop были остановлены. Оттуда измените право собственности на пользователя, использующего Hadoop (обычно hdfs, но я работал в месте, где root запускал процессы Hadoop), и вы должны быть хорошими, чтобы идти :)

+0

Это то, что я делаю на узле name ..stop-dfs.sh и start-dfs.sh, который, я считаю, перезапустит все службы hadoop. .please, дайте мне знать, если вам нужно сделать какие-либо дополнительные шаги ... используя hasoop 2.7.3 – user2359997

+0

Я также попробовал start-all.sh & stop-all.sh – user2359997

+0

Пара вещей - 'stop-all.sh' и' start-all.sh' - это путь к 'stop-dfs.sh' и 'start-dfs.sh' только остановит процесс HDFS afaik. Во-вторых, вы изменили свойство 'dfs.data.dir' через пользовательский интерфейс администратора Ambari (если у вас установлен Ambari) или вы делаете это, редактируя файл XML? Если Ambari установлен и вы редактируете XML вручную, то при перезапуске Ambari может вернуть изменения, повторно применяя конфигурацию из экземпляра базы данных, который он использует. Кроме того, я бы рекомендовал проверить, что процессы прекращены с помощью команды 'top' и проверки файлов журнала. – Fredulom