可复制的示例(改编自@forestfanjoe的答案):
library(dplyr)
library(sparklyr)
sc <- spark_connect(master = "local")
df <- data.frame(id = 1:100, PaymentHistory = runif(n = 100, min = -1, max = 2))
df <- copy_to(sc, df, "payment")
> head(df)
# Source: spark<?> [?? x 2]
id PaymentHistory
* <int> <dbl>
1 1 -0.138
2 2 -0.249
3 3 -0.805
4 4 1.30
5 5 1.54
6 6 0.936
fix_PaymentHistory <- function(df){df %>% dplyr::mutate(PaymentHistory = dplyr::if_else(PaymentHistory < 0, 0, dplyr::if_else(PaymentHistory > 1,1, PaymentHistory)))}
df %>% fix_PaymentHistory
错误是:
Error in dplyr::if_else(PaymentHistory < 0, 0, dplyr::if_else(PaymentHistory > :
object 'PaymentHistory' not found
我正在使用范围运算符,因为恐怕dplyr
中的名称将与某些用户定义的代码冲突。请注意,PaymentHistory
是df
中的列变量。
运行以下代码时,不会出现相同的错误:
fix_PaymentHistory <- function(df){
df %>% mutate(PaymentHistory = if_else(PaymentHistory < 0, 0,if_else(PaymentHistory > 1,1, PaymentHistory)))
}
> df %>% fix_PaymentHistory
# Source: spark<?> [?? x 2]
id PaymentHistory
* <int> <dbl>
1 1 0
2 2 0
3 3 0
4 4 1
5 5 1
6 6 0.936
7 7 0
8 8 0.716
9 9 0
10 10 0.0831
# ... with more rows
答案 0 :(得分:4)
TL; DR ,因为您的代码根本不使用dplyr::if_else
。
sparklyr
在示例中使用时,将Spark视为另一个数据库,并使用dbplyr
SQL translation layer发出查询。
在这种情况下,if_else
不被视为函数,而是一个标识符,该标识符被转换为SQL原语:
dbplyr::translate_sql(if_else(PaymentHistory < 0, 0,if_else(PaymentHistory > 1,1, PaymentHistory)))
# <SQL> CASE WHEN ("PaymentHistory" < 0.0) THEN (0.0) WHEN NOT("PaymentHistory" < 0.0) THEN (CASE WHEN ("PaymentHistory" > 1.0) THEN (1.0) WHEN NOT("PaymentHistory" > 1.0) THEN ("PaymentHistory") END) END
但是,如果您传递一个完全限定的名称,它将绕过此机制,尝试评估函数,最终失败,因为数据库列不在范围内。
恐怕dplyr中的名称会与某些用户定义的代码冲突。
如您所见,这里根本不需要dplyr-将sparklyr
管道中调用的函数转换为相应的SQL构造,或者如果没有适当的转换规则,则通过并由Spark SQL引擎解析(此路径用于调用Spark functions)。
当然,此机制并不特定于sparklyr
,并且使用数据库支持的其他表可能会看到相同的行为:
library(magrittr)
db <- dplyr::src_sqlite(":memory:", TRUE)
dplyr::copy_to(db, mtcars)
db %>% dplyr::tbl("mtcars") %>% dplyr::mutate(dplyr::if_else(mpg < 20, 1, 0))
Error in dplyr::if_else(mpg < 20, 1, 0) : object 'mpg' not found