我的pip install pyspark
工作正常,我在命令提示符下收到一条消息,提示SparkSession可作为“ spark”使用。
但是,当我这样做时:
from pyspark import SparkContext
它给我一个:
ModuleNotFoundError: No module named 'pyspark'
有什么问题,我该如何解决?
答案 0 :(得分:1)
您应该通过pip安装findspark模块,然后尝试:
import findspark
findspark.init('<your spark home directory for example /home/spark>')
然后您可以导入spark模块。