请帮助我理解HDFS'数据块与Spark中的RDD之间的区别。 HDFS将数据集分发到群集中的多个节点,因为具有相同大小的块和数据块将被复制多次并存储。 RDD创建为并行集合。 Parallelized集合的元素是否跨节点分布,还是存储在内存中进行处理?与HDFS的数据块有什么关系吗?
答案 0 :(得分:2)
与HDFS'数据块有关系吗?
一般不是。它们解决了不同的问题
分布是常见的分母,但就是这样,故障处理策略明显不同(分别是DAG重新计算和复制)。
Spark可以使用Hadoop输入格式,并从HDFS读取数据。在这种情况下,HDFS块和Spark拆分之间会存在关系。但Spark不需要HDFS,新API的许多组件不再使用Hadoop输入格式。