У нас есть определенная функциональность для управления данными таймсеристов. Функциональность уже предлагается как REST API и работает на Cloudfoundry. Мы хотим предложить поддержку для сбора данных
У меня есть ситуация, когда я должен фильтровать точки данных в потоке на основе некоторого состояния, связанного с ссылкой на внешние данные. Я загрузил внешние данные в Dataframe (так что я получаю
Я бы хотел, чтобы пользователь-потребитель подписался на тему Kafka и передал данные для дальнейшей обработки с помощью Spark Streaming вне потребителя. Почему актер? Поскольку я читал, что его страте
Когда я пытаюсь выполнить проект искры kafka. Я получаю ниже ошибок: Exception in thread "main" java.lang.NoClassDefFoundError: org/spark_project/guava/cache/CacheLoader
at org.apache.spark.Spark
У нас есть искра потокового приложения, где мы получаем в dstream от Кафки и нужно хранить в dynamoDB .... я буду экспериментировать с двумя способами, чтобы сделать это, как описано в коде ниже reque