将jdbc连接传递到Spark读取

时间:2019-02-12 13:01:15

标签: java apache-spark jdbc

我有一个sql脚本,该脚本创建仅对该会话有效的临时表。现在,在运行脚本之后,我试图通过spark从表中读取数据,然后对其进行处理。下面是我有火花读取代码的代码。

sparkSession.read().format("jdbc").option("url", 
jdbcURL).option("dbtable", tableOrQuery).option("user", 
userName).option("password", password)
      .option("driver", driverName).load();

现在,我需要传递我创建的jdbc连接,以便spark可以在同一会话中读取数据。这可能吗?

1 个答案:

答案 0 :(得分:1)

否,您不能将jdbc连接传递给spark。它将自行管理JDBC连接。

JdbcRelationProvider Create Connection

JdbcUtils connect