我正在开发一个spark应用程序,并且已经完成了逻辑,但我在创建独立应用程序方面几乎没有经验。
我必须有一个可运行的jar,但是当我尝试运行scala path / to / my / jar时我得到了
java.lang.ClassNotFoundException: org.apache.spark.sql.SparkSession$
这是我的build.sbt
name := "Spark_Phase2"
version := "0.1"
organization := "bartosz.spark"
scalaVersion := "2.11.8"
libraryDependencies+= "org.apache.spark" %% "spark-core" % "2.3.0"
libraryDependencies+= "org.apache.spark" %% "spark-sql" % "2.3.0"
从我所看到的情况来看,依赖关系出现了问题,但我无法想象我必须做些什么才能让它可以运行。
更让我感到困惑的是sbt run
确实运行了代码。如果有人可以为此写出逐步的解决方案,那就太好了。)
还有一件事,我必须使用带有标志的几个命令行参数,我以前从未做过,有没有人对此有任何好的文档/教程?