2016-08-04 12 views
0

Я установил кластер с четырьмя узлами. В hadoop Webui я вижу, что все datanodes и namenodes работают и работают. Но когда я запускаю select count(*) from table_name; в улье, запрос застревает.Карта Уменьшите работу, застрявшую, хотя Hadoop UP

hive> select count(*) from test_hive2; 
Query ID = dssbp_20160804124833_ff269da1-6b91-4e46-a1df-460603a5cb98 
Total jobs = 1 
Launching Job 1 out of 1 
Number of reduce tasks determined at compile time: 1 
In order to change the average load for a reducer (in bytes): 
    set hive.exec.reducers.bytes.per.reducer=<number> 
In order to limit the maximum number of reducers: 
    set hive.exec.reducers.max=<number> 
In order to set a constant number of reducers: 
    set mapreduce.job.reduces=<number> 

ошибка, что я получаю продолжительную в моих DataNode узла журналов менеджера и ульев бревен:

2016-08-04 12:33:31,474 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: namenode1/172.18.128.24:6005. Already tried 8 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS) 

вещей я проверил:

1.Can сделать телнет от DataNode к имени узел.
2.Can выполнить hasoop положить и получить команду.
3.может создавать таблицы в улье и загружать данные на него.

cat /etc/hosts 
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 
#::1   localhost localhost.localdomain localhost6 localhost6.localdomain6 
172.18.128.24 namenode1 mycluster 
172.18.128.25 namenode2 
172.18.128.26 datanode1 
172.18.128.27 datanode2 

Было бы очень полезно помочь, если кто-нибудь может предложить возможные решения.

С уважением, Ranjan

+1

Можете ли вы запустить имя хоста -f и имя хоста -i и вставить здесь результат? –

ответ

0

я мог в состоянии решить эту проблему, поскольку есть некоторая проблема с менеджером ресурсов и от узла данных, который он не смог подключиться к 172.18.128.24:6005 этого порта.