使用SparkR将double转换为日期

时间:2018-10-12 22:37:34

标签: r apache-spark apache-spark-sql sparkr

当日期是字符串时,SparkR函数to_date会将其正确转换为日期格式,但是当它是双精度时,则不是。

此外,R包动物园也可以使用。

library(zoo)

df <- tibble::tibble(date = 17000.0)

as.Date(df$date)

# [1] "2016-07-18"

但是,SparkR没有

df_spark <- as.DataFrame(df)
df_spark <- df_spark %>% 
  SparkR::mutate(date2 = to_date(df_spark$date, "MM/dd/yyyy"))

# org.apache.spark.sql.AnalysisException: cannot resolve 'unix_timestamp(`date`, 'MM/dd/yyyy')' due to data type mismatch: argument 1 requires (string or date or timestamp) type, however, '`date`' is of double type.

我需要SparkR解决方案将双精度转换为日期。请帮忙。

1 个答案:

答案 0 :(得分:1)

如果将值解释为自纪元开始以来的天数,则应使用date_add

df_spark %>% 
  SparkR::mutate(date2 = expr("date_add(to_date('1970-01-01'), date)")) %>% 
  head()
   date      date2                                                              
1 17000 2016-07-18

基本算术也应该工作:

df_spark %>% 
  SparkR::mutate(
    date2 = to_date(cast(column("date") * 60 * 60 * 24, "timestamp"))) %>% 
  head()
   date      date2
1 17000 2016-07-18