标签: hadoop apache-spark yarn benchmarking
我正在做Spark工作的基准测试。在第一阶段(只有地图和过滤器),当阶段大约为50%时,所有节点上的负载平均值会减少,但是有一些“循环”和#34;在我的节点中加载:将逐个使用(参见ganglia图形:绿色,下一个蓝色,下一个橙色,......)
为什么我的节点现在在同一个舞台上逐个使用?是因为我的RAM已满或者类似的东西?
工作台具有以下特点:
由于