2016-09-25 6 views
4

Моего искры г 1,6-код не работает в spark2.0, я сделал необходимые изменения, как создание sparkr.session() вместо sparkr.init() и не передавая sqlcontext параметра и т.д ...sparkr 2,0 read.df броски путь не существует ошибка

В код ниже я загрузке данных из пары папок в dataframe

read.df в spark1.6, который работает

sales <- read.df(sqlContext, path= "gs://dev.appspot.com/myData/2014/20*,gs://dev.appspot.com/myData/2015/20*", source = "com.databricks.spark.csv", delimiter 
="\t") 

read.df в spark2.0, что не работает

sales <- read.df("gs://dev.appspot.com/myData/2014/20*,gs://dev.appspot.c 
om/myData/2015/20*", source = "com.databricks.spark.csv", delimiter="\t") 

выше линии бросками следующее сообщение об ошибке:

6/09/25 19:28:52 ERROR org.apache.spark.api.r.RBackendHandler: loadDF on org.apache.spark.sql.api.r.SQLUtils faile d Error in invokeJava(isStatic = TRUE, className, methodName, ...) : org.apache.spark.sql.AnalysisException: **Path does not exist: gs://dev.appspot.com/myData/2014/ 20*,gs://dev.appspot.com/myData/2015/20***; 
     at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$12.apply(DataSource.scala:357) 
     at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$12.apply(DataSource.scala:350) 
     at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241) 
     at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241) 
     at scala.collection.immutable.List.foreach(List.scala:381) 
     at scala.collection.TraversableLike$class.flatMap(TraversableLike.scala:241) 
     at scala.collection.immutable.List.flatMap(List.scala:344) 
     at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:350) 
     at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:149) 
     at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:122 Calls: read.df -> dispatchFunc -> f -> callJStatic -> invokeJava Execution halted 16/09/25 19:28:53 INFO org.spark_project.jetty.server.ServerConnector: Stopped [email protected]{HTTP/1.1}{0 .0.0.0:4040} 

ответ

1

spark2.0 read.df не удается при чтении файлов, имеет "" (запятая) в имени файла.

файлы данных, которые я сгенерированные имеет запятую в имен файлов, что-то вроде этих 201448-0,004 201448-0,005 201448-0,006

После болезненных часов отладки через проблему, наконец, он начал читать данные когда я удаляю "," из имен файлов.