如何使用Hive库运行Spark-Submit

时间:2019-09-04 17:01:53

标签: apache-spark hive jar spark-submit

目前,我正在尝试将一些数据从数据帧写入Hive表。

我能够在master = local []和depoy-mode = client中做到这一点。但是当我切换到master = yarn&depoy-mode = cluster时,执行程序节点找不到所需的配置单元库。

一种选择是在--jars中提供所有必需的jar,但是有很多jar,但我不知道要包括哪些特定的jar。

我不确定如何解决此问题:

执行器节点是否应该为蜂巢jar设置所有类路径,而我们不需要为基本的蜂巢jar提供--jar选项?

OR

是否有一种方法可以将配置单元库的类路径添加到spark驱动程序jvm中,以便它分发它们,而我们不必特别提及每个jar?

0 个答案:

没有答案