2017-02-03 10 views
-2

Привет Я выполнил мое среднее количество слов в Java в Cloudera VM 4.2.1 р и я превращал в Jar файл и запустил команду: Hadoop баночка averagewordlength.jar stubs.AvgWordLength Шекспиром wordlengHadoop в пути Cloudera VMware

Далее: Я правильно запустил Шекспира и не смог запустить мой файл (который я создал: newfile). Это бросает исключение:

Исключение в потоке "основного" org.apache.hadoop.mapreduce.lib.input.InvalidInputException: Входной путь не существует: HDFS: //0.0.0.0: 8020/user/training/newfile по адресу org.apache.hadoop.mapreduce.lib.input.FileInputFormat.listStatus (FileInputFormat.java:231) по адресу org.apache.hadoop.mapreduce.lib.input.FileInputFormat.getSplits (FileInputFormat. Java: 248) на org.apache.hadoop.mapred.JobClient.writeNewSplits (JobClient.java:1064) на org.apache.hadoop.mapred.JobClient.writeSplits (JobClient.java:1081) на org.apache.hadoop.mapred.JobClient.access $ 600 (JobClient.java:174) на org.apache.hadoop.mapred.JobClient $ 2.run (JobClient.java:993) на org.apache.hadoop. mapred.JobClient $ 2.run (JobClient.java:946) в java.security.AccessController.doPrivileged (собственный метод) в javax.security.auth.Subject.doAs (Subject.java:396) в org.apache. hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java:1408) на org.apache.hadoop.mapred.JobClient.submitJobInternal (JobClient.java)

, пожалуйста, руководство, в котором путь, чтобы вставить NewFile для проверки мое решение.

ответ

0

Похоже, что неверная конфигурация Hadoop.

hdfs://0.0.0.0 не действительный адрес

Cloudera VM 4.2.1? Попробуйте загрузить новую CDH 5.x VM

0

Я получил его по команде

Hadoop фс -Положите LocalPath