Я написал задание MapReduce, которое работает на некоторых файлах Protobuf в качестве входных данных. Из-за характера файлов (нерасщепляемый) каждый файл обрабатывается одним картографом (реализован пользовательский FileInputFormat
с isSplitable
, установленный на false
). Приложение хорошо работает с размерами входных файлов менее ~680MB
и создает результирующие файлы, однако, как только размер входного файла пересекает это ограничение, приложение завершается успешно, но создает пустой файл.Каков максимальный размер входного файла (без разделения) для Mapper в Hadoop MapReduce?
Мне интересно, удастся ли мне ограничить размер файла для Mapper? Если это имеет значение, файлы хранятся в Google Storage (GFS), а не в HDFS.
Спасибо!