我尝试执行
spark-submit ***.py
然后我得到
错误:找不到或加载主类 org.apache.spark.deploy.SparkSubmit
在寻找其他人的参考之后,我试图在内部定位错误。这是错误的来源
exec /usr/local/jdk1.8.0_201/bin/java -cp '/opt/spark-2.3.2-bin-hadoop2.7/conf/:/opt/spark-2.3.2-bin-hadoop2.7/jars/*' -Xmx1g org.apache.spark.deploy.SparkSubmit ***.py
我仍然遇到相同的错误。
错误:找不到或加载主类 org.apache.spark.deploy.SparkSubmit
你知道原因吗?
这是我的环境变量:
J2REDIR=/usr/local/jdk1.8.0_201/jre
J2SDKDIR=/usr/local/jdk1.8.0_201
JAVA_HOME=/usr/local/jdk1.8.0_201
JRE_HOME=/usr/local/jdk1.8.0_201/jre/