从SQL Server读取时如何更改spark.read.jdbc使用的默认时区

时间:2018-07-17 23:05:59

标签: scala jdbc databricks

我正在使用Databricks Runtime 4.2(包括Apache Spark 2.3.1,Scala 2.11)

在Scala笔记本上,当我使用以下命令通过JDBC从SQL Server 2012中读取数据时:

val data_frame = spark.read.jdbc(,,)

源表上的所有SQL Server DATETIME列都映射到数据帧中的TIMESTAMP列,默认时区为+0000。

是否可以将即时分配的默认时区+0000更改为-0700(MTS)?

注意:如果可能的话,我不想遍历所有TIMESTAMP列然后应用转换,而是希望更改JDBC驱动程序的行为,告诉它使用不同的时区。

1 个答案:

答案 0 :(得分:0)

在您的jdbc连接字符串中添加“ ** serverTimezone = ****”。