Я новичок в hadoop и mapreduce, я пытаюсь написать mapreduce, который учитывает 10 самых популярных слов слова txt-файла.Hadoop Streaming простая работа с ошибкой python
Мой TXT-файл 'q2_result.txt' выглядит следующим образом:
yourself 268
yourselves 73
yoursnot 1
youst 1
youth 270
youthat 1
youthful 31
youths 9
youtli 1
youwell 1
youwondrous 1
youyou 1
zanies 1
zany 1
zeal 32
zealous 6
zeals 1
Mapper:
#!/usr/bin/env python
import sys
for line in sys.stdin:
line = line.strip()
word, count = line.split()
print "%s\t%s" % (word, count)
Разбавление:
#!usr/bin/env/ python
import sys
top_n = 0
for line in sys.stdin:
line = line.strip()
word, count = line.split()
top_n += 1
if top_n == 11:
break
print '%s\t%s' % (word, count)
Я знаю, что вы можете передать флаг -D в команде Hadoop jar, поэтому он сортирует по желаемому ключу (в моем случае счетчик k2,2), здесь я просто использую простую команду firs т:
hadoop jar /usr/hdp/2.5.0.0-1245/hadoop-mapreduce/hadoop-streaming-2.7.3.2.5.0.0-1245.jar -file /root/LAB3/mapper.py -mapper mapper.py -file /root/LAB3/reducer.py -reducer reducer.py -input /user/root/lab3/q2_result.txt -output /user/root/lab3/test_out
Так я думал, что такой простой картографа и редуктор не должен дать мне ошибки, но он сделал, и я не могу понять, почему, ошибки здесь: http://pastebin.com/PvY4d89c
(Я использую Horton работает HDP Sandbox на virtualBox на Ubuntu16.04)
Пожалуйста, проверьте это http://stackoverflow.com/questions/4339788/hadoop-streaming- не удалось найти файл-ошибку – Rahmath