如何在sparklyr和concatenate字符串中使用sdf_pivot()?

时间:2017-05-19 19:40:36

标签: r sparklyr

我正在尝试使用sparklyr中的sdf_pivot()函数将长格式数据框“收集”为宽格式。变量的值是我想要连接的字符串。

这是一个我认为应该有效的简单示例,但不是:

library(sparkylr)
d <- data.frame(id=c("1", "1", "2", "2", "1", "2"), 
                 x=c("200", "200", "200", "201", "201", "201"), 
                 y=c("This", "That", "The", "Other", "End", "End"))
d_sdf <- copy_to(sc, d, "d")
sdf_pivot(d_sdf, id ~ x, paste)

我希望它产生的是:

| id | `200`       | `201`           |
|====|=============|=================|
| 1  | "This That" | "End"           |
| 2  | "The"       | "Other End"     |

不幸的是,这给了我一个错误说明:

Error in as.vector(x, "character") : 
  cannot coerce type 'environment' to vector of type 'character'

我也尝试使用"collect_list",这给了我这个错误:

Error: java.lang.IllegalArgumentException: invalid method collect_list 
 for object 641

有没有办法做我正在尝试做的事情?

1 个答案:

答案 0 :(得分:3)

我挖掘了sdf_pivot的测试,似乎您可以在自定义invoke函数中使用fun.aggregate来访问collect_list函数:

 fun.aggregate <- function(gdf) {

  expr <- invoke_static(
    sc,
    "org.apache.spark.sql.functions",
    "expr",
    "collect_list(y)" #this is your own "y" variable
  )

  gdf %>% invoke("agg", expr, list())
}

然后您可以在sdf_pivot中使用

d_sdf_wide <- sdf_pivot(d_sdf, id ~ x, fun.aggregate)

这确实可以胜任:

> d_sdf_wide
Source:     table<sparklyr_tmp_69c14424c5a4> [?? x 3]
Database:   spark connection master=local[8] app=sparklyr local=TRUE

     id      `200`      `201`
  <chr>     <list>     <list>
1     1 <list [2]> <list [1]>
2     2 <list [1]> <list [2]>

(您的数据现在是list格式,而不是字符串,但如果您愿意,可以连接列表,例如

d_sdf_wide %>% mutate(liststring = paste(`200`))

     id      `200`      `201` liststring
  <chr>     <list>     <list>      <chr>
1     1 <list [2]> <list [1]>  This That
2     2 <list [1]> <list [2]>        The

(或者,您可以编写复杂的SQL查询,但我还没有尝试过)