我最近开始学习。因此,我从cloudera下载了Oracle Virtual Box和HDFS集群。它是Linux centos。首次启动spark时,默认情况下其版本为1.6.0。因此,我下载了spark版本2.2.0,并将其指向了spark。从那时起,我默认获得spark 2.2.0。但是,当我使用spark-shell启动它时,它显示错误:未找到:值spark。 整个异常树如下所示:
select sd.saleid,
sum((1-p.discount/100) * sd.quantity * p.price)
as amount
from saledetail sd inner join
product p
on sd.prodid = p.prodid
group by sd.saleid
我尝试通过在线查看类似参考文献来解决此问题,但该问题不断发生。谁能告诉我该如何解决?
答案 0 :(得分:0)
好的。 IP /主机解析似乎有问题。您需要完全按照堆栈告诉您的内容。
在您的Spark conf中设置spark.driver.bindAddress = <your ip>
您可以通过ifconfig
或ip addr
命令找到您的IP地址