glm在64位R中耗尽了内存?

时间:2015-03-10 20:23:21

标签: r

我正在尝试在具有255001个数据点的数据集上运行glm,但它正在说

Error: cannot allocate vector of size 10.0 Gb

这很奇怪,因为当我启动R时,我看到了消息

R version 3.1.1 (2014-07-10) -- "Sock it to Me"
Copyright (C) 2014 The R Foundation for Statistical Computing
Platform: x86_64-pc-linux-gnu (64-bit)

这似乎表明我正在运行64位版本的R,并且我读到Unix上64位版本的R的内存限制大约为128 Tb。

此外,我已成功对非常相似的数据集运行glm逻辑回归,这两个数据集的大小是没有任何问题的。

我如何协调这些事实,如何让R在内存中保存大对象?

1 个答案:

答案 0 :(得分:0)

事实证明我的代码中存在错误,当我在阅读数据时,我设置了header=FALSE而不是header=TRUE。改变这个解决了问题。