我对Spark很新,并且在本地模式下从配置为Windows 10和8GB RAM的机器上以eclipse运行它。我正在运行pregel算法,按照以下链接对每个节点的数据进行求和
Aggregation Summation at each node
我正在为QFileDialog
竞选
1)一个根节点又与其他10个辅助节点具有1:1的关系
2)这10个次级节点的第三节点平均为1:6,第三节点的总数约为69.
我花了大约8分钟来反复生成这两种类型的日志
Graph<Double,Double>
如何优化它或最终选项是增加RAM?