我最近被迫使用无梯度优化器(包括pyoptsparse中的优化器)
之前,迭代次数非常少,因此记录数据从来都不是大问题,我选择了内部记录器。
但是对于超过30.000次迭代的优化问题,从案例记录器读取in数据变得非常麻烦。
如果在每次迭代中都使用代码简单地将其附加到txt文件中,则读入和绘图的速度会更快。我想问一下我是在做错还是使用“附加二进制txt文件”真的更好。
步骤:
1个变量,1个约束,1个目标〜60000次迭代sql文件大小〜30 MB的优化问题
cr = CaseReader(fname)
case_keys = cr.driver_cases.list_cases()
ab=[cr.driver_cases.get_case(case_key).get_objectives()['a.obj'][0] for case_key in case_keys ]
所花费的时间:我仍然在阅读10分钟后就停下来了。...
f=open('out.dat','ab')
np.savetxt(f,[desvar,constraint,objec])
f.close() np.loadtxt( 'out.dat')
花费的时间:几秒钟内......
答案 0 :(得分:1)
使用this提交,我们可以使CaseReader更加有效地处理您描述的案例。现在已索引系统,驱动程序和求解器迭代表中的iteration_coordinate
列,这将大大减少通过get_case
方法获取大型数据库案例所需的时间。我们还向 CaseReader 添加了load_cases
方法,该方法以最少的查询将所有案例加载到内存中,从而进一步提高了get_case
方法的效率。
获取最新版本的OpenMDAO并更新代码以使用load_cases
应该会有所帮助。
cr = CaseReader(fname)
cr.load_cases()
case_keys = cr.driver_cases.list_cases()
ab=[cr.driver_cases.get_case(case_key).get_objectives()['a.obj'][0] for case_key in case_keys ]
您可以在以下将数据库加载到内存中部分中找到有关此文档的信息:http://openmdao.org/twodocs/versions/latest/features/recording/getting_values.html