hadoop

    1зной

    1ответ

    Я пытаюсь настроить Flume и я этой ссылке: https://www.eduonix.com/blog/bigdata-and-hadoop/flume-installation-and-streaming-twitter-data-using-flume/ Но на шаге 6 я выполнить следующую команду: sudo m

    1зной

    1ответ

    Я создаю приложение для приема данных из базы данных MYSQL в таблицы удержания. Приложение будет планироваться каждый день. Самое первое действие - прочитать таблицу Hive для загрузки информации табли

    1зной

    1ответ

    В настоящее время у меня есть уровень понимания новичком экосистемы Hadoop и архитектуры HDFS. Я хотел, однако, чтобы понять некоторые из следующих более глубоких аспектов о HDFS: Есть ли способ, что

    1зной

    1ответ

    Я настраиваю один узел Hadoop, но при запуске $HADOOP_HOME/sbin/start-dfs.sh он печатает, что он не может найти $HADOOP_HOME/bin/hdfs. Файл в этом месте существует, хотя я могу читать его отлично. Вхо

    0зной

    1ответ

    Я хотел бы создать простой координатор Оози, который работает каждый день в полдень, на неопределенный срок. Правильно ли это настроить? <coordinator-app name="${jobName}" frequency="${coord:days(1)}"

    1зной

    1ответ

    У меня есть папка datanode, namenode и вторичного namenode (со всеми данными или информацией внутри) с другой установки hadoop. Вопрос в том, как вы можете видеть, что там есть, или добавить его в мес

    1зной

    1ответ

    Cloudera позволяет мне настроить fs.trash.interval. Но это не позволяет мне настроить fs.trash.checkpoint.interval. Итак, когда hdfs создает контрольную точку? Аналогичный вопрос существует здесь без