我已经在Windows 10计算机上安装了以下文件,以使用Apache Spark。
Java, Python 3.6和 Spark(spark-2.3.1-bin-hadoop2.7)
我正在尝试在VSCode中编写与pyspark相关的代码。它在'from'下显示红色下划线并显示错误消息
E0401:无法导入“ pyspark”
我还使用了ctrl + Shift + P并选择“ Python:更新工作区Pyspark库”。它显示通知消息
确保已将SPARK_HOME环境变量设置为本地spark安装的根路径!
怎么了?
答案 0 :(得分:1)
您将需要使用pip install pyspark
安装pyspark Python软件包。实际上,除非您也想在同一台计算机上运行Spark应用程序,否则这是VSCode唯一需要的软件包。