我在Scala中使用过maven项目。我已经在pom中使用了所有依赖项。
当我运行ClassNotFoundException
命令时,我仍然得到spark-submit
。
clean compile assembly:single
是我使用的Maven目标。
以下是我使用的spark submit命令。
spark-submit --class com.SimpleScalaApp.SimpleApp --master local /location/file.jar
答案 0 :(得分:0)
不幸的是,我认为这个问题没有任何有用的评论。当依赖项的版本不匹配时,主要抛出ClassNotFoundException。
首先,最好通过检查这些依赖关系来检查所有依赖关系是否匹配。 pom文件及其在主项目pom文件中的使用顺序。
关于在spark集群上运行程序的最佳实践的简短描述是使用着色或汇编构建表单。