Я пытаюсь разработать автономное приложение, используя apache spark
рядом с scala sbt
Я получаю эту ошибку снова и снова.Apache Spark не может найти класс
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf at AuctionsApp$.main(AuctionsApp.scala:5)
Код фрагмента кода.
import org.apache.spark.SparkConf
object AuctionsApp {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName("AuctionsApp")
println(conf)
}
}
build.sbt
файл
name := "AuctionsApp"
version := "1.0"
scalaVersion := "2.10.5"
libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.2.0-cdh5.3.2" % "provided"
resolvers += "Cloudera Repository" at "https://repository.cloudera.com/artifactory/cloudera-repos/"
я могу перейти к SparkConf
файл, нажав команду и нажмите на имя класса в import
заявлении, означает, что он находится там вместе с другим кодом.
Проект был успешно выполнен.
всякая помощь приветствуется.
PS. используя IntelliJ Idea CE
версия 2016.3