在使用Spark加载到数据库方面需要快速帮助

时间:2019-05-09 20:25:17

标签: apache-spark pyspark-sql azure-databricks

有一个快速的问题。我有5列要从dataframe加载到存在10列的sql存在的表中。我用下面的代码,

df.write.mode("Append").jdbc(jdbcUrl,"targettable")

似乎正在用5个dataframe列覆盖所有列。

我们如何将5列插入/映射到现有的sql server表中特定的5列。谢谢。

0 个答案:

没有答案