我正在寻找一种有效的(计算机资源方面和学习/实现方式)方法来合并两个更大的(大小> 1百万/ 300 KB RData文件)数据帧。
"合并"在基地R和"加入"在plyr似乎耗尽了我的所有记忆,有效地使我的系统崩溃。
实施例
加载test data frame
并尝试
test.merged<-merge(test, test)
或
test.merged<-join(test, test, type="all")
以下帖子提供了合并和备选方案的清单:
How to join (merge) data frames (inner, outer, left, right)?
以下允许对象尺寸检查:
https://heuristically.wordpress.com/2010/01/04/r-memory-usage-statistics-variable/
答案 0 :(得分:25)
以下是data.table与data.frame方法的一些时间安排 使用data.table非常快。关于内存,我可以非正式地报告这两种方法在RAM使用方面非常相似(在20%以内)。
library(data.table)
set.seed(1234)
n = 1e6
data_frame_1 = data.frame(id=paste("id_", 1:n, sep=""),
factor1=sample(c("A", "B", "C"), n, replace=TRUE))
data_frame_2 = data.frame(id=sample(data_frame_1$id),
value1=rnorm(n))
data_table_1 = data.table(data_frame_1, key="id")
data_table_2 = data.table(data_frame_2, key="id")
system.time(df.merged <- merge(data_frame_1, data_frame_2))
# user system elapsed
# 17.983 0.189 18.063
system.time(dt.merged <- merge(data_table_1, data_table_2))
# user system elapsed
# 0.729 0.099 0.821
答案 1 :(得分:20)
以下是强制性的data.table
示例:
library(data.table)
## Fix up your example data.frame so that the columns aren't all factors
## (not necessary, but shows that data.table can now use numeric columns as keys)
cols <- c(1:5, 7:10)
test[cols] <- lapply(cols, FUN=function(X) as.numeric(as.character(test[[X]])))
test[11] <- as.logical(test[[11]])
## Create two data.tables with which to demonstrate a data.table merge
dt <- data.table(test, key=names(test))
dt2 <- copy(dt)
## Add to each one a unique non-keyed column
dt$X <- seq_len(nrow(dt))
dt2$Y <- rev(seq_len(nrow(dt)))
## Merge them based on the keyed columns (in both cases, all but the last) to ...
## (1) create a new data.table
dt3 <- dt[dt2]
## (2) or (poss. minimizing memory usage), just add column Y from dt2 to dt
dt[dt2,Y:=Y]
答案 2 :(得分:0)
你必须在R中进行合并吗?如果没有,使用简单的文件串联合并基础数据文件,然后将它们加载到R.(我意识到这可能不适用于您的情况 - 但如果确实如此,它可以为您节省很多麻烦。)