如何使用R中的爆炸功能爆炸JSON文件中的数据集?

时间:2018-10-06 19:27:28

标签: r apache-spark nested explode sparklyr

注意-我已经提到了answer,但是尽管数据不是嵌套的,但是我无法将数据转换为csv文件格式。

我想使用爆炸功能来整理不同数据类型的数据。数据集包含数组和结构。我想爆炸数据,以便进一步将其转换为CSV文件格式。

简介

通过使用Sparklyr包编写

R代码来创建数据库架构。 [提供了可复制的代码和数据库]

现有结果

root
|-- contributors : string
|-- created_at : string
|-- entities (struct)
|     |-- hashtags (array) : [string]
|     |-- media (array)
|     |     |-- additional_media_info (struct)
|     |     |       |-- description : string
|     |     |       |-- embeddable : boolean
|     |     |       |-- monetizable : bollean
|     |     |-- diplay_url : string
|     |     |-- id : long
|     |     |-- id_str : string
|     |-- urls (array)     
|-- extended_entities (struct)
|-- retweeted_status (struct)
|-- user (struct)

我想按如下所示扁平化该结构,

预期结果

root
|-- contributors : string
|-- created_at : string
|-- entities (struct)
|-- entities.hashtags (array) : [string]
|-- entities.media (array)
|-- entities.media.additional_media_info (struct)
|-- entities.media.additional_media_info.description : string
|-- entities.media.additional_media_info.embeddable : boolean
|-- entities.media.additional_media_info.monetizable : bollean
|-- entities.media.diplay_url : string
|-- entities.media.id : long
|-- entities.media.id_str : string
|-- entities.urls (array)     
|-- extended_entities (struct)
|-- retweeted_status (struct)
|-- user (struct)

数据库导航至: Data-0.5 MB。然后将编号的项目复制到名为“ example”的文本文件中。保存到在您的工作目录中创建的名为“ ../example.json/”的目录。

编写R代码以重现以下示例,

退出代码

library(sparklyr)
library(dplyr)
library(devtools)
  devtools::install_github("mitre/sparklyr.nested")
# If Spark is not installed, then also need:
# spark_install(version = "2.2.0")
library(sparklyr.nested)
library(testthat)
library(jsonlite)

Sys.setenv(SPARK_HOME="/usr/lib/spark")    
conf <- spark_config()
conf$'sparklyr.shell.executor-memory' <- "20g"
conf$'sparklyr.shell.driver-memory' <- "20g"
conf$spark.executor.cores <- 16
conf$spark.executor.memory <- "20G"
conf$spark.yarn.am.cores  <- 16
conf$spark.yarn.am.memory <- "20G"
conf$spark.executor.instances <- 8
conf$spark.dynamicAllocation.enabled <- "false"
conf$maximizeResourceAllocation <- "true"
conf$spark.default.parallelism <- 32
sc <- spark_connect(master = "local", config = conf, version = '2.2.0') # Connection             
 sample_tbl <- spark_read_json(sc,name="example",path="example.json", header = TRUE, memory = FALSE, overwrite = TRUE) 
 sdf_schema_viewer(sample_tbl) # to create db schema

我想通过使用爆炸功能来平整不同数据类型的数据。请不要使用其他程序包,因为使用Sparklyr程序包无法读取我的10亿数据。 Sparklyr软件包仅在几分钟内读取了这些巨大的数据。

目标-另外,我希望将爆炸数据转换为正确的csv文件格式。

1 个答案:

答案 0 :(得分:3)

简而言之,您有两个要求:

  • 期望的模式。
  • 我希望将这些未嵌套的数据转换为正确的csv文件格式。

不兼容。 CSV阅读器无法处理包括arrays在内的复杂类型,这些类型显然已在本问题和先前的问题中提出来。

要完全满足第二个要求,您必须使用以下其中一项

  • 序列化数组和结构,例如使用JSON
  • 完全爆炸数据集(包括顶级数组字段)以达到整齐的格式。但是,这将显着增加每条记录的数据量,您可以获得length(hashtags) * length(media) * length(urls)行。