我将Apache Spark 2.0与Scala一起使用。
当我导出包并尝试从cmd运行它时,我遇到了与Spark库相关的问题。
答案 0 :(得分:1)
如果它" Apache Spark 2.0与Scala"您可以(应该?)在libraryDependency
和build.sbt
中定义assemble
(使用sbt-assembly插件)。
这就是我所谓的专业方式(但那只是我)。
答案 1 :(得分:0)
我刚刚找到答案;这很合乎逻辑。我可以用“--jars”
添加丢失的罐子CMD中的代码行类似于
spark-submit --class com.datalabcommunity.spark.MovieSimilarities --jars C:\spark\jars\xbean-asm5-shaded-4.4.jar C:\MovieSims.jar 50
希望有相同问题的其他人发现此答案有用