在子流程的Java应用程序中提交Spark作业,子流程永不退出

时间:2018-07-26 21:11:54

标签: java apache-spark yarn

我试图通过在Windows环境中以下列方式创建一个新的子进程来向另一个Java应用程序中的纱簇提交一个火花作业

        String command = "spark-submit --class package.runner --master yarn-cluster example.jar";        
        p = Runtime.getRuntime().exec(command);
        p.waitFor();

然后我在命令中提交了该Java应用程序,检查了纱线管理器UI,它显示spark作业成功完成运行。但是,似乎Java应用程序在p.waitFor()处被阻止,任何人都可以指出出什么问题了?

0 个答案:

没有答案