pyspark中的cpu密集任务是什么?

时间:2019-04-15 06:45:21

标签: hadoop hive pyspark cpu core

致力于pyspark, Hive and Hadoop

输入/输出通道与否之间没有任何关系。内核数(cpu)。
我了解的是

1 core = 2 channels = 1 input channel and 1 output channel.

如果是这种情况,     将数据帧写入表时,输出通道将忙于将数据写入hadoop/hive。由于输出通道与核心(CPU)相关联,我可以称它为CPU密集型进程吗?
如果不是这样         那么请让我知道什么是CPU密集型任务,尤其是在pyspark

0 个答案:

没有答案