标签: apache-spark pyspark ipython-notebook jupyter-notebook
我正在运行Pyspark和ipython笔记本,我正在尝试将一个jar文件添加到spark env。 我尝试了做sc.addjar来添加jar但是dint工作。还有其他建议吗? 我知道你可以做spark-submit --jars,但我正在做火花提交 我也尝试了env变量SPARK_CLASS_PATH并将jar放在该文件夹中并重新启动了ipython / spark,它将它作为一个罐子拿起来但是dint做了什么。