Я новичок в Flume (и HDFS), поэтому надеюсь, что мой вопрос не глуп.HDFS раковина: «умная» маршрутизация папки
У меня есть многопользовательская заявка (около 100 различных клиентов, как для ). У меня есть 16 различных типов данных.
(В производстве, мы имеем около 15 миллионов сообщений/день через наш RabbitMQ.)
Я хочу написать HDFS все мои события, разделенные жильца, тип данных, и даты, как это:
/data/{tenant}/{data_type}/2014/10/15/file-08.csv
Возможно ли это с одним определением раковины? Я не хочу, чтобы дублировать конфигурации, и новый клиент прибывает каждую неделю или около того
В документации, я вижу
agent1.sinks.hdfs-sink1.hdfs.path = hdfs://server/events/%Y/%m/%d/%H/
Возможно ли это?
agent1.sinks.hdfs-sink1.hdfs.path = hdfs://server/events/%tenant/%type/%Y/%m/%d/%H/
Я хочу писать в разные папки в соответствии с моими входящими данными.
Возможный дубликат [Может ли apache flume hdfs sink принимать динамический путь для записи?] (Http://stackoverflow.com/questions/14830147/can-apache-flume-hdfs-sink-accept-dynamic-path-to- записывать) –