在SuperComputer上运行Spark应用程序

时间:2015-07-31 17:09:11

标签: apache-spark yarn supercomputers

我对YARN有疑问?

如何在YARN上运行我的jar文件?

  

线程中的异常" main" java.lang.Exception:运行时   master' yarn-cluster'必须是HADOOP_CONF_DIR或YARN_CONF_DIR   在环境中设置。

我应该在这台SuperComputer中的每个节点上复制Spark吗?

  

在这个超级计算机中,所有节点都是互连的,它有   自己的建筑。

有没有人可以在SuperComputer上运行Spark应用程序?

0 个答案:

没有答案