当我运行spark-submit时,我提供了大量的罐子路径,然后是'--jars'选项:
./spark\-submit --class "AppName" --master spark://server24:7077 --jars /path1.jar,path2.jar,path3.jar /pathAppName_2.10-1.0.jar arg1 arg2
是否有更简洁的方法在上面的命令中包含jars文件后跟-jar?
我尝试将它们添加到spark-defaults.conf中的spark.driver.extraClassPath,但这似乎没有帮助。否则无法在spark文档中找到任何内容。
有人知道吗?
答案 0 :(得分:1)
您可以在创建SparkContext时指定您依赖的jar:
val conf = new SparkConf()
.setMaster('local[*]')
.setAppName('example')
.setJars(Array('/path/to/dependencies/first.jar',
'/path/to/dependencies/second.jar'))
val sc = new SparkContext(conf)
当你使用spark-submit的--jars参数时,这基本上就是在幕后发生的事情。
答案 1 :(得分:0)