有没有什么方法可以在单个节点上安装和使用没有Hadoop / HDFS的Spark?我只是想尝试一些简单的例子,我希望尽可能保持清晰。
答案 0 :(得分:1)
是的,这是可能的。 但是它需要下面的hadoop库,所以下载任何版本的预建火花,如
wget http://www.apache.org/dyn/closer.lua/spark/spark-1.6.0/spark-1.6.0-bin-hadoop2.4.tgz
tar -xvzf spark-1.6.0-bin-hadoop2.4.tgz
cd spark-1.6.0-bin-hadoop2.4/bin
./spark-shell