使用spark-shell启动spark时发生异常:错误:未找到:value spark

时间:2018-07-08 11:09:08

标签: linux apache-spark

我最近开始学习。因此,我从cloudera下载了Oracle Virtual Box和HDFS集群。它是Linux centos。首次启动spark时,默认情况下其版本为1.6.0。因此,我下载了spark版本2.2.0,并将其指向了spark。从那时起,我默认获得spark 2.2.0。但是,当我使用spark-shell启动它时,它显示错误:未找到:值spark。 整个异常树如下所示:

select sd.saleid,
       sum((1-p.discount/100) * sd.quantity * p.price) 
as amount
from saledetail sd inner join
     product p
     on sd.prodid = p.prodid
group by sd.saleid

我尝试通过在线查看类似参考文献来解决此问题,但该问题不断发生。谁能告诉我该如何解决?

1 个答案:

答案 0 :(得分:0)

好的。 IP /主机解析似乎有问题。您需要完全按照堆栈告诉您的内容。

在您的Spark conf中设置spark.driver.bindAddress = <your ip>

您可以通过ifconfigip addr命令找到您的IP地址