我有一个Postgresql表,其中包含数据类型为JSONB
的列。
如何通过JDBC将DataFrame
插入Postgresql表?
如果我有一个UDF将body
列转换为JSONB
Postgresql数据类型,那么我应该使用相应的pyspark.sql.types是什么?
带有JSONB
列的Postgresql表:
CREATE TABLE dummy ( id bigint, body JSONB );
谢谢!
答案 0 :(得分:4)
事实证明,如果我将"stringtype":"unspecified"
设置为JDBC的属性,Postgres将自动投射:
properties = { "user": "***", "password": "***", "stringtype":"unspecified" } df.write.jdbc(url=url, table="dummy", properties=properties)