Я обычно делаю проект Maven и добавить эту зависимость в моем pom.xml файл:
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.6.1</version>
</dependency>
Затем нажать данных в HDFS это очень легко с Hadoop Java API, это простой пример просто см., как это работает:
String namenodeLocation = "hdfs://[your-namenode-ip-address]:[hadoop:listening-port]/";
Configuration configuration = new Configuration();
FileSystem hdfs = FileSystem.get(new URI(namenodeLocation), configuration);
Path file = new Path(namenodeLocation+"/myWonderful.data");
FSDataOutputStream outStream = hdfs.create(file);
byte[] coolDataToPushToHDFS = new byte[1500];
outStream.write(coolDataToPushToHDFS);
outStream.close();
hdfs.close();
Это действительно простая программа. Я думаю, что шаги, которые вы должны сделать это:
- Пусть пользователи выбирают входные/данные, чтобы подтолкнуть
- Использование Hadoop Java API для отправки файлов/данных в кластер
- Дайте обратную связь с пользователем.
Вы также можете добавить информацию в файл, а не только создать новый файл.
Дайте взглянуть на документацию: https://hadoop.apache.org/docs/current/api/
Почему бы не построить клиент Java Hadoop, которые подключаются к Hadoop NameNode и записи данных пользователю необходимо с помощью Hadoop-клиента API? –
Да Simone ... У вас есть список фляг, которые потребуются для запуска Java-кода? – Shashi