标签: apache-spark pyspark
我想查看我的spark上下文正在使用的jar。 我在scala中找到了代码:
http://bailiwick.io/2017/08/11/list-all-additional-jars-loaded-in-spark/
但是我无法在PySpark中找到方法。 有什么建议么?谢谢
答案 0 :(得分:0)
sparkContext._jsc.sc().listJars()
_jsc是Java Spark上下文
_jsc