我有一个csv文件,每个记录(行)有时间戳。我使用spark csv解析它(我把它包含在Spark 1.5.2中)但是发生了一件奇怪的事情。
我文件中的所有时间戳都移动了3个小时。例如,我的值从2015-12-27 00:00:00
开始,以2016-12-28 00:00:00
结尾。现在,当我使用Spark解析它时,我得到范围2015-12-27 03:00:00
到2015-12-28 03:00:00
的值。
为什么会发生这种情况?处理它的最佳方式是什么?
答案 0 :(得分:0)
问题在于服务器上的时区与UTC不同。这搞砸了解析,在解析过程中添加了3个小时。