致力于pyspark, Hive and Hadoop
输入/输出通道与否之间没有任何关系。内核数(cpu)。
我了解的是
1 core = 2 channels = 1 input channel and 1 output channel.
如果是这种情况,
将数据帧写入表时,输出通道将忙于将数据写入hadoop/hive
。由于输出通道与核心(CPU)相关联,我可以称它为CPU密集型进程吗?
如果不是这样
那么请让我知道什么是CPU密集型任务,尤其是在pyspark