我已导入所需的包。我甚至可以导入SparkBundleContext
import org.apache.spark.ml.bundle.SparkBundleContext
但是当我做的时候
val sbc = SparkBundleContext()
我收到此错误
java.lang.NoClassDefFoundError: org/apache/spark/ml/clustering/GaussianMixtureModel
答案 0 :(得分:0)
如果您正在使用maven,请将apache spark ML依赖项添加为
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.1.1</version>
</dependency>
如果您正在使用SBT,请将依赖项添加为
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.1"
使用正确版本的依赖项,使其与您的scala版本匹配。
希望这有帮助!