有没有办法使用sparklyr / dplyr的函数复制Spark数据帧的行?
sc <- spark_connect(master = "spark://####:7077")
df_tbl <- copy_to(sc, data.frame(row1 = 1:3, row2 = LETTERS[1:3]), "df")
这是所需的输出,保存到新的spark tbl:
> df2_tbl
row1 row2
<int> <chr>
1 1 A
2 1 A
3 1 A
4 2 B
5 2 B
6 2 B
7 3 C
8 3 C
9 3 C
答案 0 :(得分:3)
使用sparklyr
,您可以按照@Oli的建议使用array
和explode
:
df_tbl %>%
mutate(arr = explode(array(1, 1, 1))) %>%
select(-arr)
# # Source: lazy query [?? x 2]
# # Database: spark_connection
# row1 row2
# <int> <chr>
# 1 1 A
# 2 1 A
# 3 1 A
# 4 2 B
# 5 2 B
# 6 2 B
# 7 3 C
# 8 3 C
# 9 3 C
和概括
library(rlang)
df_tbl %>%
mutate(arr = !!rlang::parse_quo(
paste("explode(array(", paste(rep(1, 3), collapse = ","), "))")
)) %>% select(-arr)
# # Source: lazy query [?? x 2]
# # Database: spark_connection
# row1 row2
# <int> <chr>
# 1 1 A
# 2 1 A
# 3 1 A
# 4 2 B
# 5 2 B
# 6 2 B
# 7 3 C
# 8 3 C
# 9 3 C
您可以轻松调整行数。
答案 1 :(得分:1)
首先想到的想法是使用explode
函数(它正是它在Spark中的意思)。然而,SparkR似乎并不支持数组(据我所知)。
> structField("a", "array")
Error in checkType(type) : Unsupported type for SparkDataframe: array
但我可以提出另外两种方法:
一个直截了当但不太优雅的人:
head(rbind(df, df, df), n=30)
# row1 row2
# 1 1 A
# 2 2 B
# 3 3 C
# 4 1 A
# 5 2 B
# 6 3 C
# 7 1 A
# 8 2 B
# 9 3 C
或者使用for循环来获得更多通用性:
df2 = df
for(i in 1:2) df2=rbind(df, df2)
请注意,这也适用于union
。
第二种更优雅的方法(因为它只暗示一次火花操作)基于交叉连接(笛卡尔积),数据帧大小为3(或任何其他数字):
j <- as.DataFrame(data.frame(s=1:3))
head(drop(crossJoin(df, j), "s"), n=100)
# row1 row2
# 1 1 A
# 2 1 A
# 3 1 A
# 4 2 B
# 5 2 B
# 6 2 B
# 7 3 C
# 8 3 C
# 9 3 C
答案 2 :(得分:0)
我不知道R&#39 rep
函数的集群端版本。但是,我们可以使用连接来模拟群集端。
df_tbl <- copy_to(sc, data.frame(row1 = 1:3, row2 = LETTERS[1:3]), "df")
replyr <- function(data, n, sc){
joiner_frame <- copy_to(sc, data.frame(joiner_index = rep(1,n)), "tmp_joining_frame", overwrite = TRUE)
data %>%
mutate(joiner_index = 1) %>%
left_join(joiner_frame) %>%
select(-joiner_index)
}
df_tbl2 <- replyr(df_tbl, 3, sc)
# row1 row2
# <int> <chr>
# 1 1 A
# 2 1 A
# 3 1 A
# 4 2 B
# 5 2 B
# 6 2 B
# 7 3 C
# 8 3 C
# 9 3 C
它完成了工作,但它有点脏,因为tmp_joining_frame
将持续存在。由于对函数的多次调用进行了延迟评估,我不确定它的效果如何。