我正在使用Spark 2.1的结构化流媒体(内部使用Hive 1.2.1 jar)。我正在尝试为Hive开发ForEachWriter,以便通过JDBC连接器将流数据写入Hive。
在我的群集上,我有Hive 1.1.0。
如果我使用版本1.2.1的Hive jdbc jar,那么由于客户端和版本不匹配,我会遇到异常。服务器版本的Hive:
Required field 'client_protocol' is unset!
如果我使用版本1.1.0的Hive jdbc jar,那么我在Spark中会遇到异常,如下所示:
Caused by: java.lang.NoSuchFieldError: METASTORE_CLIENT_SOCKET_LIFETIME
在HiveContex
初始化SparkSession
t时即将到来。