我们有hortonworks hadoop集群,该集群具有Spark版本-public String fetchGroup(SQLiteDatabase inDatabase, String valueCheck){
String query = "SELECT COUNT(id) FROM groups WHERE groupname=\"" + valueCheck + "\"";
Cursor cursor = inDatabase.rawQuery(query, null);
cursor.moveToFirst();
int place = cursor.getInt(0);
return String.valueOf(place);
}
(基于HDP 2.3.0
),具有ambari平台
2.6.5
为了将spark版本升级到Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.3.0.2.6.5.0-292
/_/
Using Scala version 2.11.8 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_112)
Type in expressions to have them evaluated.
Type :help for more information.
scala>
,我们需要将HDP版本升级到2.3.2
但是将HDP升级到3.1
以获得火花3.1
的风险太大,因为这是生产hadoop集群
因此,我们决定从头开始在所有机器上安装spark客户端(来自https://spark.apache.org/downloads.html)以生成spark版本-2.3.2
,并保留旧的spark版本-2.4.4
,< / p>
表示没有删除当前的spark版本,而是安装新的spark版本-2.3.0
(来自https://spark.apache.org/downloads.html),它将是新的工作spark,而不是spark 2.4.4
有可能吗?
如果是,那么如何? ,程序?
HDP 3.1.0的官方Apache组件版本:
2.3.0