Spark sql Unix时间戳返回错误输出

时间:2018-03-22 05:41:40

标签: scala apache-spark unix-timestamp

以下查询返回2017-02-23 00:45:00而不是12:45

spark.sql("select from_unixtime(unix_timestamp(('2017-02-23 12:45:00')," +
          "'yyyy-MM-dd hh:mm:ss'))").show(false)

但是下面的查询正在返回预期的输出

2017-02-23 13:45:00

spark.sql("select from_unixtime(unix_timestamp(('2017-02-23 13:45:00')," +
          "'yyyy-MM-dd hh:mm:ss'))").show(false)

有人可以帮忙吗?

1 个答案:

答案 0 :(得分:0)

您应该使用大写作为HH:mm:ss

spark.sql("select from_unixtime(unix_timestamp(('2017-02-23 12:45:00'),'yyyy-MM-dd HH:mm:ss')) AS date").show(false)

应该给你

+-------------------+
|date               |
+-------------------+
|2017-02-23 12:45:00|
+-------------------+

您可以获得更多信息here