Spark中RDD数量的最大限制

时间:2016-04-13 07:00:33

标签: apache-spark rdd

我是Spark新手,目前正在学习相关概念。我遇到的一个基本问题是Spark中RDD数量的限制是什么?

1 个答案:

答案 0 :(得分:0)

据我所知,Spark中的RDD数量没有限制。

唯一的限制是内存和磁盘交换空间Spark可以扩展/使用。

我一直在为生产中40吨的数据运行火花,但尚未达到任何限制。