我想构建一个LP,其参数由5到10,25,000,000到50,000,000行.csv文件(每个大约500mb到1Gb)给出。
我的模型目前以AMPL编码,并直接从.csv文件中读取参数值。我正在使用的带有1 Gb RAM的Windows XP内存不足以尝试基于仅500mb的数据构建模型.csv
我的问题: 有没有办法管理我的数据,以便我可以使用更少的内存来构建LP?
我感谢任何有建立大量LP经验的人的反馈。
答案 0 :(得分:2)
如果您的计算机上只有1 GB RAM,很难看到只能 .csv 文件500 MB或更多的情况下,您将能够加载并解决此类大问题
如果不能选择添加更多的RAM内存,则需要分析LP问题,看它是否可以分成更小的独立部分。例如,如果您遇到10,000个变量和10,000,000行的问题,或许有可能将主要问题分解为100个独立的子问题,每个100个变量和100,000个行?
Here是一个虽然已经过时的书籍章节的链接,它讨论了将大型LP问题分解为可管理的子问题。