2016-11-06 15 views
1

Мой вопрос в отношении рамки Apache Flink.Поддержка нескольких потоков в Apache Flink Job

Есть ли способ поддержать несколько потоков, таких как kafka и twitter, в одной работе с flink? Есть ли какая-нибудь работа. Можем ли мы обрабатывать несколько источников потоковой передачи за один раз в однофланговой работе?

Я работаю в Spark Streaming, и это ограничение существует.

Возможно ли это для других потоков, таких как Apache Samza, Storm или NIFI?

Реакция очень долгожданная.

ответ

2

Да, это возможно в Флинка и Бурях (без подсказки о Samza или НЕМ ...)

Вы можете добавить стольких операторов источников, как вы хотите, и каждый из них может потреблять от другого источника.

StreamExecutionEnvironment see = StreamExecutionEnvironment.getExecutionEnvironment(); 

Properties properties = ... // see Flink webpage for more details  

DataStream<String> stream1 = env.addSource(new FlinkKafkaConsumer08<>("topic", new SimpleStringSchema(), properties);) 
DataStream<String> stream2 = env.readTextFile("/tmp/myFile.txt"); 

DataStream<String> allStreams = stream1.union(stream2); 

Для шторма, использующего API низкого уровня, шаблон аналогичен. См. An Apache Storm bolt receive multiple input tuples from different spout/bolt

+0

Право. Спасибо за ответ. Можем ли мы добавить этот приемник флинка в искровый проект? Есть ли среднее средство для соединения потокового потока с апачей-искрами. – Sadaf

+0

Я никогда не использовал Искра. Нет подсказки. Кроме того, я не знаю о промежуточном программном обеспечении для объединения Flink и Spark - и мне интересно, почему вы хотите сделать это в первую очередь ... –

+0

На самом деле я работаю над искровым проектом. Но я не могу передавать данные из нескольких источников потоковой передачи в одном рабочем месте, используя искровой поток. Поэтому я хочу преодолеть эту проблему, используя флинк. и действительно, что знать, как присоединиться к этим обоим. – Sadaf

 Смежные вопросы

  • Нет связанных вопросов^_^