标签: apache-spark jdbc
我正在使用spark将某些配置单元表推送到RDBMS spark.write.jdbc(...)
spark.write.jdbc(...)
我在RDBMS端看到许多打开的/已终止的连接,每个任务几乎都有一个。所以我的问题是-它使用连接池吗?如果是这样,我该如何配置?如果没有,则是使用
df.rdd.forachPartition { // Open a connection, prepare batch and insert ??? }