世界发展指标如下
library(data.table)
WDI <- fread("CountryName CountryCode IndicatorName IndicatorCode 1960 1961 2017
ArabWorld ARB A FX.OWN.TOTL.ZS 37.16521072 37.16521072 37.16521072
ArabWorld ARB B FX.OWN.TOTL.FE.ZS 25.63540268 25.63540268 25.63540268
ArabWorld ARB C FX.OWN.TOTL.MA.ZS 48.32851791 48.32851791 48.32851791
ArabWorld ARB D FX.OWN.TOTL.OL.ZS 42.54204559 42.54204559 42.54204559
ArabWorld ARB E FX.OWN.TOTL.40.ZS 27.72478104 27.72478104 27.72478104
ArabWorld ARB F FX.OWN.TOTL.PL.ZS 26.45811081 26.45811081 26.45811081
ArabWorld ARB G FX.OWN.TOTL.60.ZS 43.44695282 43.44695282 43.44695282
ArabWorld ARB H FX.OWN.TOTL.SO.ZS 48.66697693 48.66697693 48.66697693
ArabWorld ARB I FX.OWN.TOTL.YG.ZS 20.95479965 20.95479965 20.95479965
", header = TRUE)
我使用以下代码重塑了世界银行的世界发展指标数据库。
library(dplyr)
library(tidyr)
WDI <- WDI %>%
select(-`Indicator Name`) %>%
gather(Year, val,`1960`:`2017`) %>%
spread(`Indicator Code`, val)
它曾经可以正常工作,但是由于某种原因,现在需要太多内存才能完成操作。
我试图从工作空间gc()
中删除所有其他数据库,关闭计算机上的所有其他程序,并减少了重塑所需的时间,但这并不能解决问题。结果,我想知道是否有一种较少占用内存的方法来处理该问题。
编辑1:根据这种方法post dcast.data.table
或reshape
(因为没有用完内存),这是一种解决方法。但是,我在重写语法时遇到了很多麻烦(我在发布问题时也得到了dplyr的答复)如何使用dcast / reshape重写dplyr
代码?
select
,gather
,spread
这两个词与dcast和重塑有什么关系?
编辑2:我首先尝试如下熔化data.table:
WDI = melt(WDI, id.vars = c("IndicatorCode", "CountryName", "CountryCode"),
# measure.vars = -c("IndicatorCode", "CountryName", "CountryCode", "IndicatorName"))
measure.vars = c("1960", "1961","2017"))
colnames(WDI)[4] <- "year"
WDI = dcast(WDI, CountryName + CountryCode + year ~ IndicatorCode, value.var="value")
但是随后我得到“警告” Aggregation function missing: defaulting to length
,并且所有条目都是1而不是值。当条目的组合不是唯一的时,显然会发生这种情况。但是,我非常确定它们是(国家和指标的结合,应该使条目唯一)。
答案 0 :(得分:1)
WDI数据集不是特别大,因此我怀疑您的gather
命令排除了每行唯一的列,从而导致大量重复,例如像2018
这样的额外年份列。
使用select
命令可以更加明确地避免这种情况,只需肯定地选择所需的列,而不要否定地排除特定的列,像这样...
library(readr)
library(dplyr)
library(tidyr)
url <- "http://databank.worldbank.org/data/download/WDI_csv.zip"
zippath <- tempfile(fileext = ".zip")
download.file(url, zippath)
csvpath <- unzip(zippath, files = "WDIData.csv", exdir = tempdir())
WDI <- readr::read_csv(csvpath)
WDI %>%
select(`Country Name`, `Country Code`, `Indicator Code`, `1960`:`2017`) %>%
gather(Year, val,`1960`:`2017`) %>%
spread(`Indicator Code`, val)
或者您可以确保排除了在重塑中不需要的列,就像这样...
library(readr)
library(dplyr)
library(tidyr)
url <- "http://databank.worldbank.org/data/download/WDI_csv.zip"
zippath <- tempfile(fileext = ".zip")
download.file(url, zippath)
csvpath <- unzip(zippath, files = "WDIData.csv", exdir = tempdir())
WDI <- readr::read_csv(csvpath)
WDI %>%
select(-`Indicator Name`, -`2018`, -`X64`) %>%
gather(Year, val,`1960`:`2017`) %>%
spread(`Indicator Code`, val)
您还可以通过使用gather
的{{1}}选项避免中间尺寸的膨胀,这可能会加快速度...
na.rm = TRUE
还有更多说明,请注意,如果使用上面创建的示例数据集“意外”未在汇总命令中包含2017,将会发生什么情况。
library(readr)
library(dplyr)
library(tidyr)
url <- "http://databank.worldbank.org/data/download/WDI_csv.zip"
zippath <- tempfile(fileext = ".zip")
download.file(url, zippath)
csvpath <- unzip(zippath, files = "WDIData.csv", exdir = tempdir())
WDI <- readr::read_csv(csvpath)
WDI %>%
select(-`Indicator Name`, -`2018`, -`X64`) %>%
gather(Year, val,`1960`:`2017`, na.rm = TRUE) %>%
spread(`Indicator Code`, val)