如何在Ubuntu上的Anaconda发行版上安装Spark?

时间:2018-09-08 06:19:12

标签: python apache-spark pyspark

我有Ubuntu 18.04。我正在使用anaconda发行版来使用jupyter笔记本和python。我想安装spark和pyspark以与HDFS一起使用。 我想知道同样的正确安装过程。 谢谢

1 个答案:

答案 0 :(得分:1)

conda install -c conda-forge pyspark 

这允许您使用conda-forge频道将PySpark安装到anaconda环境中。为了使其与Spark一起使用,只需在Spark集群上运行代码即可。有关更多信息,请查看here,其中有一些有关将蟒蛇与PySpark和Spark一起使用的参考。