目前,我正在尝试将一些数据从数据帧写入Hive表。
我能够在master = local []和depoy-mode = client中做到这一点。但是当我切换到master = yarn&depoy-mode = cluster时,执行程序节点找不到所需的配置单元库。
一种选择是在--jars中提供所有必需的jar,但是有很多jar,但我不知道要包括哪些特定的jar。
我不确定如何解决此问题:
执行器节点是否应该为蜂巢jar设置所有类路径,而我们不需要为基本的蜂巢jar提供--jar选项?
OR
是否有一种方法可以将配置单元库的类路径添加到spark驱动程序jvm中,以便它分发它们,而我们不必特别提及每个jar?