Я разрабатываю приложение для искрообразования с помощью Kafka. У меня есть несколько вопросов следующим образом: я потоковый данные из таблиц RDBMS в Кафка и используя искровую потребителя потреблять сообщения и процесс с использованием Спарка - SQLПередача данных в реальном времени с использованием Apache Spark и kfaka
Вопросы: 1. я потоковый данными из таблицы и потоковый Кафка, как (ключ как имя таблицы, значение как данные таблицы в виде записей JSON) - это правильная архитектура?
- В искровом потребителе я пытаюсь использовать данные с помощью DStream.foreachRDD (x => преобразование в x RDD) - у меня проблема с этим (он говорит об ошибке с преобразованием внутри преобразование не разрешено ... Я пытаюсь извлечь ключи внутри функции foreachRDD, чтобы получить имена таблиц и преобразовать значения x.values с использованием функции карты для преобразования из JSON в обычную строку, а затем сохранить каждую запись в Spark-sql)
Является ли эта архитектура и дизайн для потоковой передачи базы данных ОК и как я могу решить трансформацию в рамках проблемы трансформации?
С уважением, Piyush Кансал
обмена код, где у Вас есть ошибка будет полезно понять ошибку better.if возможного кода, пожалуйста, поделитесь фрагмент кода – yoga