我对Spark和Ambari的集群安装相对较新。最近,我得到了一个在集群上安装Spark 2.1.0的任务,该集群预装了带有HDFS&的Spark 1.6.2的Ambari。纱线2.7.3。
我的任务是安装Spark 2.1.0,因为它是最新版本,具有更好的RSpark兼容性等。我在互联网上搜索了几天,仅在AWS或Spark 2.1.0上找到了一些安装指南。
如下: http://data-flair.training/blogs/install-deploy-run-spark-2-x-multi-node-cluster-step-by-step-guide/ 和http://spark.apache.org/docs/latest/building-spark.html。
但他们都没有提到不同版本Spark的干扰。由于我需要保持此群集的运行,我想知道群集的一些潜在威胁。
有没有正确的方法来进行此安装?非常感谢!
答案 0 :(得分:3)
如果您希望由Ambari管理SPARK2安装,则必须由Ambari配置SPARK2。
HDP 2.5.3 NOT 支持Spark 2.1.0,但它提供了Spark 2.0.0的技术预览。
您的选择是: