创建Spark会话时发生ClassNotFoundException

时间:2018-11-02 06:02:04

标签: scala apache-spark apache-spark-sql

我正在尝试使用以下代码在单元测试案例中创建一个Spark会话

val spark = SparkSession.builder.appName("local").master("local").getOrCreate()

但是在运行测试时,出现以下错误:

java.lang.ClassNotFoundException: org.apache.hadoop.fs.GlobalStorageStatistics$StorageStatisticsProvider

我尝试添加依赖项,但无济于事。有人可以指出这个问题的原因和解决方案吗?

1 个答案:

答案 0 :(得分:0)

可能有两个原因。  1.您的Spark和Hadoop堆栈版本可能不兼容。例如,HBase 0.9与spark 2.0不兼容。它将导致未找到类/方法的异常。  2.由于依赖关系地狱,您可能拥有同一个库的多个版本。您可能需要运行依赖关系树以确保不是这种情况。

相关问题