У нас есть 4 datanode HDFS-кластера ... на каждом узле данных около 98 гб имеется большое количество пространства ... но когда я смотрю на информацию о датаном .. это только используя около 10GB и бежит из космоса ...Hadoop: HDFS Cluster работает вне пространства, хотя пространство доступно
Как мы можем сделать его использовать все 98gb, а не бежать из космоса, как показано на изображении
это конфигурация дискового пространства
это HDFS-site.xml на имя узла
<property>
<name>dfs.name.dir</name>
<value>/test/hadoop/hadoopinfra/hdfs/namenode</value>
</property>
это является HDFS-site.xml под узлом данных
<property>
<name>dfs.data.dir</name>
<value>/test/hadoop/hadoopinfra/hdfs/datanode</value>
</property>
Eventhough/тест имеет 98GB и hdfs сконфигурирован для его использования, он не использует его
Отсутствует что-либо при изменении конфигурации? И как мы можем убедиться, что 98GB используется?
Просто мысль, является вашим фактором репликации установить значение по умолчанию? Я знаю, что по умолчанию 3, но похоже, что вы используете 10x объем памяти. Я не на 100% полагаю, копируются ли копии копий блоков как «фактическое» хранилище или нет ... – Fredulom
Если это не так, действительно ли каталог, указанный вами в свойстве 'dfs.data.dir', существует ? Согласно веб-сайту Apache ... '... Каталоги, которые не существуют, игнорируются.' – Fredulom
существует такой каталог, если он не существует ... start -dfs.sh будет исчезать, но он запускается правильно, но все еще используется old ... location, которое имеет 14gb – user2359997