如何安装新的Spark版本,而不删除当前安装的Spark版本

时间:2019-09-25 14:46:57

标签: linux apache-spark hadoop hortonworks-data-platform ambari

我们有hortonworks hadoop集群,该集群具有Spark版本-public String fetchGroup(SQLiteDatabase inDatabase, String valueCheck){ String query = "SELECT COUNT(id) FROM groups WHERE groupname=\"" + valueCheck + "\""; Cursor cursor = inDatabase.rawQuery(query, null); cursor.moveToFirst(); int place = cursor.getInt(0); return String.valueOf(place); } (基于HDP 2.3.0),具有ambari平台

2.6.5

为了将spark版本升级到Welcome to ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /___/ .__/\_,_/_/ /_/\_\ version 2.3.0.2.6.5.0-292 /_/ Using Scala version 2.11.8 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_112) Type in expressions to have them evaluated. Type :help for more information. scala> ,我们需要将HDP版本升级到2.3.2

但是将HDP升级到3.1以获得火花3.1的风险太大,因为这是生产hadoop集群

因此,我们决定从头开始在所有机器上安装spark客户端(来自https://spark.apache.org/downloads.html)以生成spark版本-2.3.2,并保留旧的spark版本-2.4.4,< / p>

表示没有删除当前的spark版本,而是安装新的spark版本-2.3.0(来自https://spark.apache.org/downloads.html),它将是新的工作spark,而不是spark 2.4.4

有可能吗?

如果是,那么如何? ,程序?

HDP 3.1.0的官方Apache组件版本:

2.3.0

0 个答案:

没有答案