Pyspark-并行化

时间:2018-11-20 02:44:25

标签: pyspark

我想在过滤后将1 tb数据帧子集化为许多数据帧,并希望对其执行特定操作,然后希望使用用于过滤的键将它们保存在字典中。 我可以使用RDD或pyaprk中的某些工具执行此操作吗?

0 个答案:

没有答案