У меня есть dataframe сомнение в val df1 = sqlContext.sql("select * from table1 limit 1")
df1.cache()
df1.take(1)
scala> Array[org.apache.spark.sql.Row] = Array([10,20151100-0000,B95A,293759,0,7698
У меня есть dataframe со схемой, как, например: [visitorId: string, trackingIds: array<string>, emailIds: array<string>]
Ищете способ группы (или, может быть Rollup?) Это dataframe по visitorid где