Spark集团"循环赛"装入纱线

时间:2017-07-09 14:41:59

标签: hadoop apache-spark yarn benchmarking

我正在做Spark工作的基准测试。在第一阶段(只有地图和过滤器),当阶段大约为50%时,所有节点上的负载平均值会减少,但是有一些“循环”和#34;在我的节点中加载:将逐个使用(参见ganglia图形:绿色,下一个蓝色,下一个橙色,......)

ganglia screen

为什么我的节点现在在同一个舞台上逐个使用?是因为我的RAM已满或者类似的东西?

工作台具有以下特点:

  • 带有HDFS的纱线上的Spark 1.6
  • 10个节点,每个1.5TB,60GB RAM,16个核心
  • 8.5TB数据(复制1)

由于

0 个答案:

没有答案