在Spark 2.2.0中,我成功地使用df.jdbc.write
将记录追加到现有的MySQL表中:
mysql_uri = "jdbc:mysql://127.0.0.1/mydb"
uri = mysql_uri + "?rewriteBatchedStatements=true"
table = "test"
properties = {
"user": "user",
"password": "pass"
}
df.write.jdbc(url=uri, table=table, mode="append", properties=properties)
表test
有一个AUTO_INCREMENT Id
字段。假设我的数据帧df
只有一行,是否有任何方法可以在插入后返回最后一行Id
?