PySpark相当于LAST_INSERT_ID()

时间:2018-02-08 14:52:27

标签: jdbc pyspark

在Spark 2.2.0中,我成功地使用df.jdbc.write将记录追加到现有的MySQL表中:

    mysql_uri = "jdbc:mysql://127.0.0.1/mydb"
    uri = mysql_uri + "?rewriteBatchedStatements=true"
    table = "test"
    properties = {
        "user": "user",
        "password": "pass"
    }
    df.write.jdbc(url=uri, table=table, mode="append", properties=properties)

test有一个AUTO_INCREMENT Id字段。假设我的数据帧df只有一行,是否有任何方法可以在插入后返回最后一行Id

0 个答案:

没有答案