此时,返回\ Java \ jdk1.7.0 \ bin \ java的Spark-shell命令是意外的

时间:2019-01-09 07:17:56

标签: java apache-spark pyspark anaconda

我正在尝试在本地计算机上设置Spark。我已按照以下链接中提到的所有步骤进行操作。

https://hernandezpaul.wordpress.com/2016/01/24/apache-spark-installation-on-windows-10/

我的系统安装了Java 1.8。但是我遇到了与Java 1.7相关的错误,如下所示。

enter image description here

任何人都可以建议如何解决此错误。

谢谢。

2 个答案:

答案 0 :(得分:1)

尝试从bin文件夹执行spark-shell。

c:\ spark1.6> bin \ spark-shell

答案 1 :(得分:0)

    环境变量中的
  1. JAVA_HOME必须是这样的: C:\Program Files (x86)\Java 我们需要将其更改为C:\Progra~2\Java\jre1.8.0_211 因为你的路径上有空间
    1. 完成后,请关闭您的cmd并重新打开它,然后将其开火,它应该可以工作