OpenMDAO内部记录器效率低吗?

时间:2018-06-25 12:01:02

标签: python openmdao

我最近被迫使用无梯度优化器(包括pyoptsparse中的优化器)

之前,迭代次数非常少,因此记录数据从来都不是大问题,我选择了内部记录器。

但是对于超过30.000次迭代的优化问题,从案例记录器读取in数据变得非常麻烦。

如果在每次迭代中都使用代码简单地将其附加到txt文件中,则读入和绘图的速度会更快。我想问一下我是在做错还是使用“附加二进制txt文件”真的更好。

步骤:

1个变量,1个约束,1个目标〜60000次迭代sql文件大小〜30 MB的优化问题

cr = CaseReader(fname)
case_keys = cr.driver_cases.list_cases()
ab=[cr.driver_cases.get_case(case_key).get_objectives()['a.obj'][0] for case_key in case_keys ]

所花费的时间:我仍然在阅读10分钟后就停下来了。...

f=open('out.dat','ab')
np.savetxt(f,[desvar,constraint,objec])
f.close() np.loadtxt( 'out.dat')

花费的时间:几秒钟内......

1 个答案:

答案 0 :(得分:1)

使用this提交,我们可以使CaseReader更加有效地处理您描述的案例。现在已索引系统,驱动程序和求解器迭代表中的iteration_coordinate列,这将大大减少通过get_case方法获取大型数据库案例所需的时间。我们还向 CaseReader 添加了load_cases方法,该方法以最少的查询将所有案例加载到内存中,从而进一步提高了get_case方法的效率。

获取最新版本的OpenMDAO并更新代码以使用load_cases应该会有所帮助。

    cr = CaseReader(fname)
    cr.load_cases()
    case_keys = cr.driver_cases.list_cases()
    ab=[cr.driver_cases.get_case(case_key).get_objectives()['a.obj'][0] for case_key in case_keys ]

您可以在以下将数据库加载到内存中部分中找到有关此文档的信息:http://openmdao.org/twodocs/versions/latest/features/recording/getting_values.html