似乎已安装Spark,但无法导入pyspark模块

时间:2018-06-22 14:05:23

标签: python python-3.x apache-spark pyspark pyspark-sql

我的pip install pyspark工作正常,我在命令提示符下收到一条消息,提示SparkSession可作为“ spark”使用。

但是,当我这样做时:

from pyspark import SparkContext

它给我一个:

ModuleNotFoundError: No module named 'pyspark'

有什么问题,我该如何解决?

1 个答案:

答案 0 :(得分:1)

您应该通过pip安装findspark模块,然后尝试:

import findspark
findspark.init('<your spark home directory for example /home/spark>')

然后您可以导入spark模块。