spark JDBC列大小

时间:2018-04-01 14:03:50

标签: apache-spark jdbc

spark JDBC列大小:

我正在尝试获取列(VARCHAR)大小,我正在使用:

spark.read.jdbc(myDBconnectionSTring,scheam.table,connectionProperties)

检索列名和类型,但我需要varchar列的大小。 在java JDBC数据库元数据中,我可以获得列名,类型和大小。 火花有可能吗? 谢谢

1 个答案:

答案 0 :(得分:1)

Apache Spark仅为所有文本列使用单一统一类型 - StringType,它映射到内部不安全的UTF表示。无论外部存储中使用的类型如何,表示都没有区别。