我正在使用以下代码。
import org.apache.spark.SparkContext
import org.apache.spark.sql.SQLContext
object SqlContextSparkScala {
def main (args: Array[String]) {
val sc =SparkContext
val sqlcontext = new SQLContext(sc)
}
}
我收到的错误就像spark不是org.apache的成员一样。 我在eclipse IDE中编写这个java代码。请建议适当的jar。
答案 0 :(得分:0)
请包含spark-core_2.10-1.4.1.jar
如果您正在使用maven,请包括下面提到的依赖
bower update