我对YARN有疑问?
如何在YARN上运行我的jar文件?
线程中的异常" main" java.lang.Exception:运行时 master' yarn-cluster'必须是HADOOP_CONF_DIR或YARN_CONF_DIR 在环境中设置。
我应该在这台SuperComputer中的每个节点上复制Spark吗?
在这个超级计算机中,所有节点都是互连的,它有 自己的建筑。
有没有人可以在SuperComputer上运行Spark应用程序?