Я пытаюсь использовать Avro Serialize с Apache kafka для сериализации/десериализации сообщений. Я создаю один продюсер, который используется для сериализации сообщения определенного типа и отправки ег
Я пытаюсь поглотить сообщение от производителя кафки через программу искрообразования. Вот моя программа val Array(zkQuorum, group, topics, numThreads) = args
val sparkConf = new SparkConf().set
Всякий раз, когда я пытаюсь прочитать сообщение из очереди kafka, я получаю следующее исключение: [error] (run-main-0) java.lang.ClassCastException: org.apache.avro.generic.GenericData$Record cannot b
Совсем недавно мы начали получать MessageSizeTooLargeException в метаданных, поэтому мы включили offsets.topic.compression.codec = 1, чтобы включить сжатие gzip, но общие байты в скорости/сообщениях п
При попытке потребления у Kafka с использованием потребителя высокого уровня (с использованием совершенно новой группы потребителей) потребитель никогда не запускается. Когда я включаю уровень протоко