单节点独立Spark?

时间:2016-04-15 04:21:19

标签: apache-spark spark-streaming

有没有什么方法可以在单个节点上安装和使用没有Hadoop / HDFS的Spark?我只是想尝试一些简单的例子,我希望尽可能保持清晰。

1 个答案:

答案 0 :(得分:1)

是的,这是可能的。 但是它需要下面的hadoop库,所以下载任何版本的预建火花,如

wget http://www.apache.org/dyn/closer.lua/spark/spark-1.6.0/spark-1.6.0-bin-hadoop2.4.tgz
tar -xvzf spark-1.6.0-bin-hadoop2.4.tgz
cd spark-1.6.0-bin-hadoop2.4/bin
./spark-shell