错误的原因是什么:运行spark-shell时找不到或加载主类

时间:2019-02-18 20:53:26

标签: windows scala apache-spark hadoop

我在Windows 8.1上安装了spark 2.3.3。我已经设置了环境变量:JAVA_HOME和HADOOP_HOME并将它们添加到路径中。当我尝试运行spark-shell时出现错误:

错误:找不到或加载主类.lang.NoClassDefFoundError:

我与管理员权限一起运行命令行。 如何获取有关该错误的更多详细信息以解决该问题?

0 个答案:

没有答案