将jar应用程序部署到Spark集群时出错

时间:2020-04-01 09:42:57

标签: java apache-spark jar spark-streaming

我有问题。我想在Spark集群中部署并启动我的Java应用程序。我构建项目的jar文件,创建master和两个worker。而且,当我要部署jar时,我有Error: Failed to load class。在Idea中,我的主类位于该路径:DomainPackage.Main.SimpleApp,但是出现此错误。请帮忙

这就是我尝试部署的方式

D:\spark\bin>spark-submit --class DomainPackage.Main.SimpleApp 
--master spark://192.168.56.1:7077 --executor-memory 3g D:\\spark.jar

那个错误

Warning: Ignoring non-Spark config property: export
Error: Failed to load class DomainPackage.Main.SimpleApp.

0 个答案:

没有答案