如何将自定义库添加到Apache Spark?

时间:2015-12-19 03:51:19

标签: java scala apache-spark distributed-computing

我想将GeoSpark库添加到Apache Spark。如何从Spark shell添加GeoSpark库?

1 个答案:

答案 0 :(得分:3)

$ ./bin/spark-shell --master local[4] --jars code.jar

- jars选项会自动将本地自定义jar分发到群集。