Spark集群模式。部署应用程序jar

时间:2016-12-05 06:15:56

标签: maven apache-spark deep-learning

我想在spark集群模式下运行maven项目。我有应用程序jar文件。我还有一名主人和6名工人处于工作状态。但是当我执行jar应用程序时,工作不会在工作者之间分配。以下是我从spark目录中给出的命令。

 ./bin/spark-submit --class org.deeplearning4j.mlp.MnistMLPExample --master spark://115.145.173.152:7077 --driver-memory 10g /home/hadoop/Niki/mnist/target/dl4j-spark-0.7-SNAPSHOT-bin.jar.   

如果我添加另一个参数--deploy-mode cluster,那么它的抛出异常如下:

Exception in thread "main" com.beust.jcommander.ParameterException: Unknown option: --deploy-mode

任何人都可以帮助我。非常感谢

2 个答案:

答案 0 :(得分:0)

您好Nikitha是的,您需要在所有工作节点中使用jar文件,因为Spark变换和操作将在工作节点上执行,如果他们使用此路径,他们会在本地路径中搜索文件,因此将其分发到所有工作节点上也可以告诉为什么你在火花代码中使用这个jar文件路径。

答案 1 :(得分:0)

您在独立模式下运行spark。独立中没有集群/客户端模式。它仅限于纱线。