У меня есть вопрос о примере MapReduce объясняется здесь:Fiware-Космос MapReduce
Это действительно самый распространенный пример Hadoop MapReduce, в WordCount.
Я могу выполнить его без проблем в глобальном экземпляре Cosmos, но даже когда я даю ему небольшой вход (файл с 2 или 3 строками), для его выполнения требуется много времени (на полминуты больше или менее). Я предполагаю, что это его нормальное поведение, но мой вопрос: ¿Почему это так долго даже для небольшого ввода?
Я предполагаю, что этот метод повышает его эффективность при использовании больших наборов данных, где эта минимальная задержка является незначительной.