我在我的mac上安装了hadoop 2.7。然后我想在它上面安装火花。但是这里没有任何文件。任何人都可以一步一步地解释如何在hadoop上安装spark?
答案 0 :(得分:1)
安装Apache Spark的步骤
1)打开Apache Spark网站http://spark.apache.org/
2)点击“下载”标签,新页面将打开
3)选择预构建的Hadoop 2.7及更高版本
4)选择直接下载
5)点击Download Spark:spark-2.0.2-bin-hadoop2.7.tgz并将其保存在您想要的位置。
6)转到已下载的Tar文件并将其解压缩。
7)再次提取spark-2.0.2-bin-hadoop2.7.tar [文件名随版本变化而不同]生成spark-2.0.2-bin-hadoop2.7文件夹
8)现在打开Shell提示符并转到spark-2.0.2-bin-hadoop2.7文件夹的bin目录[文件夹名称因版本更改而有所不同]
9)执行命令spark-shell.sh
您将在Spark Shell中执行spark命令
https://spark.apache.org/docs/latest/quick-start.html< - 来自spark的快速入门指南
希望这有助于!!!
答案 1 :(得分:0)
为了在纱线群上运行火花,有很多步骤来安装hadoop和spark所有这些我一步一步地写一个博客你可以安装它并在纱线上运行火花壳看到下面的链接
答案 2 :(得分:0)
以下是我使用 hadoop 将 Apache Spark 安装到 Linux Centos 系统的步骤:
sudo yum install java-11-openjdk
)tar xvf spark-2.4.5-bin-hadoop2.7.tgz
)sudo mv spark-2.4.5-bin-hadoop2.7/ /opt/spark
)/opt/spark/bin/spark-shell
执行;如果您想使用 Python,请使用 /opt/spark/bin/pyspark
执行