在cmd模式下运行spark-shell时。出现错误,系统找不到指定的路径

时间:2019-03-31 11:04:55

标签: apache-spark pyspark

我已经安装了anaconda3和miniconda3。在Windows 10中安装了hadoop和spark。 我也完成了路径设置。但是我的火花仍然没有作用。

我正在获取“系统找不到指定的路径。 我已经检查了stackoverflow中的旧解决方案,但是没有任何作用

请帮助我。

0 个答案:

没有答案