不带sbt的“ import org.apache.spark.SparkContext”编译scala代码

时间:2019-09-01 06:46:24

标签: scala apache-spark

我已经开始构建一个小的Scala代码。 它将展开以打开SparkContext并进行一些数据处理。 到目前为止,我仅导入了3个spark库来运行简单的代码。

我收到错误消息“错误:对象apache不是org软件包的成员”。

问题是:如何使用scalac进行手动编译,以便编译过程可以包括Spark库-无需Maven或sbt?

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object HelloWorld {
    def main(args: Array[String]) {
    println("Hello, world!")
    }
}

0 个答案:

没有答案