spark.jdbc.write是否使用连接池?

时间:2018-08-01 12:49:23

标签: apache-spark jdbc

我正在使用spark将某些配置单元表推送到RDBMS      spark.write.jdbc(...)

我在RDBMS端看到许多打开的/已终止的连接,每个任务几乎都有一个。所以我的问题是-它使用连接池吗?如果是这样,我该如何配置?如果没有,则是使用

手动完成所有操作的唯一方法
df.rdd.forachPartition { // Open a connection, prepare batch and insert ??? }

0 个答案:

没有答案