Scala Spark MLLib NoClassDefFoundError

时间:2017-07-16 06:38:53

标签: java scala apache-spark sbt apache-spark-mllib

我正在使用Spark mllib学习ALS 当我尝试创建评级以传递给ALS.train我得到了这个错误

<Picker SelectedIndex="0" HorizontalOptions="End" VerticalOptions="Center" Title="{i18n:Translate State}">
    <Picker.ItemsSource>
        <x:Array Type="{x:Type x:String}">
            <i18n:TranslateExtension Text="OnState"></i18n:TranslateExtension>
            <i18n:TranslateExtension Text="OffState"></i18n:TranslateExtension>
        </x:Array>
    </Picker.ItemsSource>
</Picker>

我用 sbt 0.13.15, Scala 2.10.4, spark-core 2.10, spark-mllib 2.10, 试过java 7和8

我做错了吗?

2 个答案:

答案 0 :(得分:2)

我为我的案例找到了解决方案

问题是我尝试用IntelliJ IDE运行这个火花,我发现在我的Build.sbt中我有这样的东西来使用依赖

libraryDependencies ++= Seq( "org.apache.spark" % "spark-core_2.10" % "2.1.0" , "org.apache.spark" % "spark-mllib_2.10" % "2.1.0" % "provided" )

问题发生在"provided"当我尝试使用IntelliJ运行时我应该将其更改为"compile"否则我会看到类似的错误

答案 1 :(得分:0)

是的,只需删除提供的将解决问题

libraryDependencies ++= Seq( "org.apache.spark" % "spark-core_2.10" % "2.1.0" ,
"org.apache.spark" % "spark-mllib_2.10" % "2.1.0" )