flume

    0зной

    1ответ

    Я хочу анализировать данные социальных сетей с помощью Hadoop. Я использовал flume для передачи данных Twitter в hadoop с использованием настраиваемого источника, но для Facebook я ничего не нашел для

    1зной

    1ответ

    Я fluming двоичный объект HDFS и есть мой водовода агент и установка раковины выглядит следующим образом a1.sinks.k1.type = hdfs a1.sinks.k1.channel = c1 a1.sinks.k1.hdfs.path = /user/%y-%m-%d/%H%M/

    1зной

    2ответ

    Я хотел бы попросить вашу помощь в следующем случае. настоящее время я использую Cloudera CDH 5.1.2, и я попытался собрать данные Twitter, используя Flume, как описано в следующих porsts (Cloudera): h

    0зной

    1ответ

    У меня есть лоток, который передает данные в HDFS-приемник (добавляется в тот же файл), который я мог бы «cat» и видеть его с HDFS. Однако задание MapReduce только собирает первую партию, которая была

    1зной

    2ответ

    Я пытаюсь выяснить, каковы правильные ответы на эти 2 вопроса, касающиеся загрузки данных в Hadoop, которые я нашел в Интернете, как часть моих исследований, материалов и примеров для разработки Hadoo

    2зной

    1ответ

    Я пытаюсь настроить лоток для просмотра журналов журналов задач, так что когда когда-либо новое задание запускается, журнал задач передается потоку, и он фильтрует журнал событий и отправляет его куда

    0зной

    1ответ

    Я использую Flume для объединения небольших файлов Avro (каждый из которых содержит пару событий Avro) в файлы большего размера, которые будут храниться в HDFS. Я использую источник Spool и HDFS-раков