从包含Pyspark中的时间戳的字符串列中提取日期

时间:2016-05-19 18:01:48

标签: datetime apache-spark pyspark pyspark-sql

我有一个数据框,其日期格式如下:

+----------------------+
|date                  |
+----------------------+
|May 6, 2016 5:59:34 AM|
+----------------------+

我打算以YYYY-MM-DD格式从中提取日期;所以结果应该是上述日期 - 2016-05-06。

但是当我提取时使用以下内容:

df.withColumn('part_date', from_unixtime(unix_timestamp(df.date, "MMM dd, YYYY hh:mm:ss aa"), "yyyy-MM-dd"))

我得到以下日期

2015-12-27

有人可以就此提出建议吗?我不打算将我的df转换为rdd以使用python中的datetime函数,并希望在自己的数据帧中使用它。

1 个答案:

答案 0 :(得分:13)

您的模式存在一些错误。这是一个建议:

from_pattern = 'MMM d, yyyy h:mm:ss aa'
to_pattern = 'yyyy-MM-dd'
df.withColumn('part_date', from_unixtime(unix_timestamp(df['date'], from_pattern), to_pattern)).show()
+----------------------+----------+
|date                  |part_date |
+----------------------+----------+
|May 6, 2016 5:59:34 AM|2016-05-06|
+----------------------+----------+