我正在尝试编写spark scala应用程序代码的测试用例。因此,我打算为此使用SharedSparkSession
。
我看过其他框架,例如 com.holdenkarau ,但我正在寻找其他任何替代方法,尤其是使用SharedSparkSeesion
。
因此,我尝试通过网络上的SharedSparkSession
查找示例示例,但我无法这样做。
如果有任何示例,请发布。
答案 0 :(得分:1)
Spark自己的测试框架可以在Scala中使用,其中存在SparkSession。对于下面的Maven,必须包含一些依赖项,可以将其转换为Sbt。 ScalaTest示例:https://apache.googlesource.com/spark/+/master/sql/core/src/test/scala/org/apache/spark/sql/ColumnExpressionSuite.scala
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_${scala.suffix}</artifactId>
<version>${spark.version}</version>
<scope>test</scope>
<type>test-jar</type>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_${scala.suffix}</artifactId>
<version>${spark.version}</version>
<scope>test</scope>
<type>test-jar</type>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-catalyst_${scala.suffix}</artifactId>
<version>${spark.version}</version>
<scope>test</scope>
<type>test-jar</type>
</dependency>