无法在mleap中创建SparkBundlecontext的对象

时间:2017-05-11 20:53:33

标签: apache-spark noclassdeffounderror mleap

我已导入所需的包。我甚至可以导入SparkBundleContext

import org.apache.spark.ml.bundle.SparkBundleContext

但是当我做的时候

val sbc = SparkBundleContext()

我收到此错误

java.lang.NoClassDefFoundError: org/apache/spark/ml/clustering/GaussianMixtureModel

1 个答案:

答案 0 :(得分:0)

如果您正在使用maven,请将apache spark ML依赖项添加为

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.11</artifactId>
    <version>2.1.1</version>
</dependency>

如果您正在使用SBT,请将依赖项添加为

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.1"

使用正确版本的依赖项,使其与您的scala版本匹配。

希望这有帮助!