有效地重塑大型数据集

时间:2019-07-08 09:33:29

标签: r dplyr reshape tidyr

世界发展指标如下

library(data.table)
WDI <- fread("CountryName   CountryCode IndicatorName   IndicatorCode   1960    1961    2017
ArabWorld   ARB A   FX.OWN.TOTL.ZS  37.16521072 37.16521072 37.16521072
ArabWorld   ARB B   FX.OWN.TOTL.FE.ZS   25.63540268 25.63540268 25.63540268
ArabWorld   ARB C   FX.OWN.TOTL.MA.ZS   48.32851791 48.32851791 48.32851791
ArabWorld   ARB D   FX.OWN.TOTL.OL.ZS   42.54204559 42.54204559 42.54204559
ArabWorld   ARB E   FX.OWN.TOTL.40.ZS   27.72478104 27.72478104 27.72478104
ArabWorld   ARB F   FX.OWN.TOTL.PL.ZS   26.45811081 26.45811081 26.45811081
ArabWorld   ARB G   FX.OWN.TOTL.60.ZS   43.44695282 43.44695282 43.44695282
ArabWorld   ARB H   FX.OWN.TOTL.SO.ZS   48.66697693 48.66697693 48.66697693
ArabWorld   ARB I   FX.OWN.TOTL.YG.ZS   20.95479965 20.95479965 20.95479965
", header = TRUE)

我使用以下代码重塑了世界银行的世界发展指标数据库。

library(dplyr)
library(tidyr)

WDI <- WDI %>% 
  select(-`Indicator Name`) %>% 
  gather(Year, val,`1960`:`2017`) %>% 
  spread(`Indicator Code`, val)

它曾经可以正常工作,但是由于某种原因,现在需要太多内存才能完成操作。

我试图从工作空间gc()中删除所有其他数据库,关闭计算机上的所有其他程序,并减少了重塑所需的时间,但这并不能解决问题。结果,我想知道是否有一种较少占用内存的方法来处理该问题。


编辑1:根据这种方法post dcast.data.tablereshape(因为没有用完内存),这是一种解决方法。但是,我在重写语法时遇到了很多麻烦(我在发布问题时也得到了dplyr的答复)如何使用dcast / reshape重写dplyr代码?

selectgatherspread这两个词与dcast和重塑有什么关系?


编辑2:我首先尝试如下熔化data.table:

WDI = melt(WDI, id.vars = c("IndicatorCode", "CountryName", "CountryCode"),
               #  measure.vars = -c("IndicatorCode", "CountryName", "CountryCode", "IndicatorName"))
                measure.vars = c("1960", "1961","2017"))
colnames(WDI)[4] <- "year"
WDI = dcast(WDI, CountryName + CountryCode + year ~ IndicatorCode, value.var="value")

但是随后我得到“警告” Aggregation function missing: defaulting to length,并且所有条目都是1而不是值。当条目的组合不是唯一的时,显然会发生这种情况。但是,我非常确定它们是(国家和指标的结合,应该使条目唯一)。

1 个答案:

答案 0 :(得分:1)

WDI数据集不是特别大,因此我怀疑您的gather命令排除了每行唯一的列,从而导致大量重复,例如像2018这样的额外年份列。

使用select命令可以更加明确地避免这种情况,只需肯定地选择所需的列,而不要否定地排除特定的列,像这样...

library(readr)
library(dplyr)
library(tidyr)

url <- "http://databank.worldbank.org/data/download/WDI_csv.zip"
zippath <- tempfile(fileext = ".zip")
download.file(url, zippath)

csvpath <- unzip(zippath, files = "WDIData.csv", exdir = tempdir())

WDI <- readr::read_csv(csvpath)

WDI %>% 
  select(`Country Name`, `Country Code`, `Indicator Code`, `1960`:`2017`) %>% 
  gather(Year, val,`1960`:`2017`) %>% 
  spread(`Indicator Code`, val)

或者您可以确保排除了在重塑中不需要的列,就像这样...

library(readr)
library(dplyr)
library(tidyr)

url <- "http://databank.worldbank.org/data/download/WDI_csv.zip"
zippath <- tempfile(fileext = ".zip")
download.file(url, zippath)

csvpath <- unzip(zippath, files = "WDIData.csv", exdir = tempdir())

WDI <- readr::read_csv(csvpath)

WDI %>% 
  select(-`Indicator Name`, -`2018`, -`X64`) %>% 
  gather(Year, val,`1960`:`2017`) %>% 
  spread(`Indicator Code`, val)

您还可以通过使用gather的{​​{1}}选项避免中间尺寸的膨胀,这可能会加快速度...

na.rm = TRUE

还有更多说明,请注意,如果使用上面创建的示例数据集“意外”未在汇总命令中包含2017,将会发生什么情况。

library(readr)
library(dplyr)
library(tidyr)

url <- "http://databank.worldbank.org/data/download/WDI_csv.zip"
zippath <- tempfile(fileext = ".zip")
download.file(url, zippath)

csvpath <- unzip(zippath, files = "WDIData.csv", exdir = tempdir())

WDI <- readr::read_csv(csvpath)

WDI %>% 
  select(-`Indicator Name`, -`2018`, -`X64`) %>% 
  gather(Year, val,`1960`:`2017`, na.rm = TRUE) %>% 
  spread(`Indicator Code`, val)