即使设置系统/环境变量后,也无法在 Windows 10 中设置 pyspark

时间:2021-04-15 07:11:52

标签: apache-spark pyspark

我已经根据需要设置了系统变量,但 spark-shell 没有启动,我尝试在系统变量中设置所有变量,而不是在环境/用户变量中设置。

JAVA_HOME = C:\Program Files\Java\jdk1.8.0_121
HADOOP_HOME = E:\Arun\Software\hadoop
SPARK_HOME = E:\Arun\Software\Spark\spark-2.4.7-bin-hadoop2.7
path = %HADOOP_HOME%\bin;%SPARK_HOME%\bin;%JAVA_HOME%\bin

variable details

0 个答案:

没有答案