Pygmo 2:控制内存分配

时间:2018-08-15 08:18:32

标签: python-3.x mathematical-optimization pygmo

我很乐意运行Pygmo2,以使用自适应微分进化来解决18参数问题。

一切正常,但代价高昂:Pygmo大量占用内存,需要约170G内存,而实际使用约10G。
我在总计500G的冗余集群上运行,因此我不能同时运行多个实例,而不会影响其他用户的服务器性能。由于完成一次运行需要2-3个小时,因此对于探索性分析和目标函数优化有些限制。

我查看了文档,其他SO问题,git线程,但是不得不说我对内存使用并没有太多了解。 所以,我的问题是:

  • 对于具有多个参数的问题,这种贪婪的记忆行为是否正常?还是由于目标函数编码的原因? (我会发布代码,但是是一段600行的代码,描述了热力学生化平衡,如果没有必要,我不会阻塞该帖子)
  • 如果这种超额分配是正常的,它有什么功能?
  • 有没有办法限制pygmo分配的内存?
  • 提示/技巧/经验/建议?

有关设置的一些详细信息:
pygmo 2.8
18参数问题
有4个岛屿的群岛
40位父母的总人数(关于缺乏表现的有趣陈述,使父母的数量激增,而与此处http://www1.icsi.berkeley.edu/~storn/code.html的参数数量无关)

谢谢!

0 个答案:

没有答案