列出在pyspark中加载的所有其他jar

时间:2019-07-16 12:48:22

标签: apache-spark pyspark

我想查看我的spark上下文正在使用的jar。 我在scala中找到了代码:

http://bailiwick.io/2017/08/11/list-all-additional-jars-loaded-in-spark/

但是我无法在PySpark中找到方法。 有什么建议么?谢谢

1 个答案:

答案 0 :(得分:0)

sparkContext._jsc.sc().listJars()

_jsc是Java Spark上下文