Spark将错误的每月最后一天存储到MySQL中

时间:2019-03-06 04:03:08

标签: mysql apache-spark

我正在使用spark,我的任务是将每月的最后一天写入mysql。但是我在时区有一些问题。我的系统位于UTC + 8时区,而mysql位于UTC + 0时区。

火花代码非常简单

val randomDay = args(0) val temp = spark.sql(s"""select last_day('$randomDay') as lastday from .....""")

但是当我查看mysql表时,它显示了2019/3/30,这是一天的休假。我尝试了temp.show(),它显示了正确的日期2019/3/31。

我知道它与时区有关,但我不知道如何解决。 另外,mysql表的列类型是日期,不应该取决于时区。

0 个答案:

没有答案