使用Pyspark将列从字符串转换为时间戳

时间:2019-11-07 05:44:53

标签: pyspark apache-spark-sql pyspark-sql pyspark-dataframes

我有2列(Violation_Time,Time_First_Observed)的pyspark数据帧,它们被捕获为字符串。数据样本在下面,以HHmm的形式捕获,其中“ A”或“ P”代表上午或下午。另外,某些条目超过24HH时,数据有错误。

Violation_Time          Time_First_Observed
0830A                   1600P
1450P                   0720A
1630P                   2540P
0900A                   0100A

我想使用pyspark删除两列的“ A”和“ P”,然后将数据(例如0800、1930等)转换为时间戳以进行分析。我尝试对“ Violation_Time”列执行此操作,并创建一个新列“ timestamp”来存储它(请参见下面的代码)。但是,我似乎无法做到。任何形式的帮助都非常感谢,谢谢。

sparkdf3.withColumn('timestamp',F.to_timestamp("Violation_Time", "HH"))
sparkdf3.select(['Violation_Time','timestamp']).show()

1 个答案:

答案 0 :(得分:2)

您可以使用以下

sparkdf3 = sparkdf3.withColumn('timestamp', func.split(func.to_timestamp('Violation_Time', 'HHmm'), ' ').getItem(1))
sparkdf3.select(['Violation_Time','timestamp']).show()

说明

sparkdf3.withColumn('timestamp', 
   func.split(
      func.to_timestamp('Violation_Time', 'HHmm') #Convert to timestamp. It will convert in datetime format
       , ' '
    ).getItem(1) #Split on space and get first item
)