找不到满足要求findspark的函数

时间:2018-03-29 15:00:09

标签: python-3.x apache-spark pyspark

我使用的是Spark-2.3.0,并尝试使用以下命令安装Findspark:

pip install findspark

但我收到以下错误enter image description here

如果您有任何想法我如何解决此问题请帮助。谢谢!

1 个答案:

答案 0 :(得分:0)

我将ly目录更改为C:\ Spark \ spark-2.3.0-bin-hadoop2.7 \ python,然后运行命令:

  pip install findspark
通过这样做,问题解决了! enter image description here