spark-shell命令给出了Java错误

时间:2018-07-03 04:27:52

标签: java apache-spark hadoop

我是新来的火花。尝试在具有Java版本1.7.0_80的本地计算机(mac)中进行设置。

执行以下步骤:

  1. 从以下位置下载了Apache Spark,版本spark-2.3.1-bin-hadoop2.6.tgz https://spark.apache.org/downloads.html
  2. 解压缩文件,将文件夹重命名为spak并将其移至 / usr / local / spark
  3. 在/ usr / local / spark中,运行以下命令:bin / spark-shell

遇到此Java错误:

var tds = document.querySelectorAll('td')
var message = 'Test Data';
for (var i = 0; i < tds.length; i++) {
    tds[i].innerHTML =  message + i;
}

1 个答案:

答案 0 :(得分:1)

您需要Java 8才能运行版本高于2.2.0的Spark。 有关详情,请参见the Spark documentatin

  

使用Maven构建Spark需要Maven 3.3.9或更高版本以及Java 8+。请注意,自Spark 2.2.0起已删除了对Java 7的支持。

因此,您的选择是升级Java还是使用旧版本的Spark。