通过诸如各种Revolution R模块之类的东西,如果你将一个大型数据集带入R,该怎么办,并且它太大而无法存储在RAM中。但有没有办法处理在R 中创建的数据集,这些数据集太大而无法存储在RAM中,除了简单地(并且手动)将创建步骤分解为一系列RAM大小的块,将该块写入磁盘,清除它并继续?
例如,只是进行大型模拟,或使用SurvSplit()之类的东西进行单次观察,生存时间从1到N并将其分解为N个单独的观察值?
答案 0 :(得分:0)
如果您在R中创建数据并且可以对总数据的一小部分进行分析,那么只需为任何给定的分析创建大量的块。