我尝试使用30000个变量和1700个约束来优化我的模型,但是当我添加更多约束时,我得到了这个错误。
n<-lp ("max", f.obj, f.con, f.dir, f.rhs)$solution
Error: cannot allocate vector of size 129.9 Mb
我在赢得32位,2gb ram工作。 如何使用大型数据集来处理和优化我的模型?
答案 0 :(得分:1)
按照现代标准,这是一台小机器,也是一个非常微小的问题。简短的回答是你应该在拥有更多RAM的机器上运行。请注意,问题不在于R一般不能分配130 MB向量 - 它可以 - 它是特定机器上的内存耗尽。
我建议在具有16 GB RAM的计算机上运行64位R 3.0实例,看看是否有帮助。
你可能想要研究在云上启动一台机器,并远程使用RStudio,这比购买一台新电脑便宜很多。