Sparkpersist()将所有数据存储到单个节点

时间:2018-07-15 14:35:04

标签: apache-spark

我陷入了火花工作persist()的困境,几个数据帧被持久化到整个集群中的单个节点。一个缺少“ MEMORY_AND_DISK_SER”,另一个较大的数据集带有“ DISK_ONLY”,我是否缺少任何允许spark将缓存分发到群集中所有节点的配置。

Spark 1.6正在YARN之上运行,并且作业是从spark-shell运行的

0 个答案:

没有答案