У меня есть файл последовательность, значение которых похожеПоследовательность чтения файлов в PySpark 2.0
(string_value, json_value)
Я не забочусь о значении строки.
В Scala я могу прочитать файл по
val reader = sc.sequenceFile[String, String]("/path...")
val data = reader.map{case (x, y) => (y.toString)}
val jsondata = spark.read.json(data)
Я с трудом преобразовывая это PySpark. Я пробовал использовать
reader= sc.sequenceFile("/path","org.apache.hadoop.io.Text", "org.apache.hadoop.io.Text")
data = reader.map(lambda x,y: str(y))
jsondata = spark.read.json(data)
Ошибки являются загадочными, но я могу предоставить их, если это поможет. Мой вопрос в том, является ли правильным синтаксисом для чтения этих файлов последовательности в pySpark2?
Я думаю, что я не преобразовываю элементы массива в строки правильно. Я получаю подобные ошибки, если я делаю что-то простое, как
m = sc.parallelize([(1, 2), (3, 4)])
m.map(lambda x,y: y.toString).collect()
или
m = sc.parallelize([(1, 2), (3, 4)])
m.map(lambda x,y: str(y)).collect()
Спасибо!