我正在使用spark,我的任务是将每月的最后一天写入mysql。但是我在时区有一些问题。我的系统位于UTC + 8时区,而mysql位于UTC + 0时区。
火花代码非常简单
val randomDay = args(0)
val temp = spark.sql(s"""select last_day('$randomDay') as lastday from .....""")
但是当我查看mysql表时,它显示了2019/3/30,这是一天的休假。我尝试了temp.show()
,它显示了正确的日期2019/3/31。
我知道它与时区有关,但我不知道如何解决。 另外,mysql表的列类型是日期,不应该取决于时区。