带scala的独立Spark应用程序

时间:2018-04-23 21:09:26

标签: scala apache-spark sbt

我正在开发一个spark应用程序,并且已经完成了逻辑,但我在创建独立应用程序方面几乎没有经验。

我必须有一个可运行的jar,但是当我尝试运行scala path / to / my / jar时我得到了

   java.lang.ClassNotFoundException: org.apache.spark.sql.SparkSession$ 

这是我的build.sbt

name := "Spark_Phase2"

version := "0.1"

organization := "bartosz.spark"

scalaVersion := "2.11.8"

libraryDependencies+= "org.apache.spark" %% "spark-core" % "2.3.0"
libraryDependencies+= "org.apache.spark" %% "spark-sql" % "2.3.0"

从我所看到的情况来看,依赖关系出现了问题,但我无法想象我必须做些什么才能让它可以运行。

更让我感到困惑的是sbt run确实运行了代码。如果有人可以为此写出逐步的解决方案,那就太好了。)

还有一件事,我必须使用带有标志的几个命令行参数,我以前从未做过,有没有人对此有任何好的文档/教程?

0 个答案:

没有答案