我想运行一个我已用sbt package
命令编译过的独立Spark脚本。如何设置Scala脚本的正确配置以在IntelliJ IDE中运行我的脚本?目前我正在使用带有以下命令的命令行来运行它(但我想在IntelliJ中运行以进一步调试,例如):
~/spark-1.2.0/bin/spark-submit --class "CoinPipe" target/scala-2.10/coinpipe_2.10-1.0.jar /training/data/dir 7 12
贝娄是我想要做的事情的快照:
答案 0 :(得分:3)
我意识到这篇文章很旧,但是我遇到了同样的问题并找到了解决方案,所以我想把它张贴在这里。
使用主类创建Java应用程序运行配置:
org.apache.spark.deploy.SparkSubmit
VM选项应至少包括spark conf和jars的类路径:
-cp "c:\spark\conf\;c:\spark\jars\*"
程序参数应包含jar文件作为第一个参数,然后是要传递给程序的实际程序参数:
yourapp.jar arg1 arg2
模块的使用类路径应设置为您的模块。
答案 1 :(得分:0)
尝试以下步骤:
注意:您可能希望某些时候重新启动intelliJ以从build.sbt文件中提取依赖项。
答案 2 :(得分:0)
您可以将spark-submit设置为External Tool。但它不会在运行菜单中。