启动Spark-Submit-错误:无法找到或加载主类org.apache.spark.launcher.Main

时间:2019-02-14 16:26:08

标签: java apache-spark

我尝试执行

spark-submit ***.py

然后我得到

  

错误:找不到或加载主类   org.apache.spark.deploy.SparkSubmit

在寻找其他人的参考之后,我试图在内部定位错误。这是错误的来源

exec /usr/local/jdk1.8.0_201/bin/java -cp '/opt/spark-2.3.2-bin-hadoop2.7/conf/:/opt/spark-2.3.2-bin-hadoop2.7/jars/*' -Xmx1g org.apache.spark.deploy.SparkSubmit ***.py

我仍然遇到相同的错误。

  

错误:找不到或加载主类   org.apache.spark.deploy.SparkSubmit

你知道原因吗?

这是我的环境变量:

 J2REDIR=/usr/local/jdk1.8.0_201/jre
 J2SDKDIR=/usr/local/jdk1.8.0_201
 JAVA_HOME=/usr/local/jdk1.8.0_201
 JRE_HOME=/usr/local/jdk1.8.0_201/jre/

0 个答案:

没有答案