从Spark到Oracle服务器的JDBC连接

时间:2018-08-15 18:52:15

标签: oracle apache-spark jdbc

当从Spark集群建立到Oracle服务器的连接时,是从要执行代码的节点/框中建立到Oracle服务器的JDBC连接还是从数据节点执行该连接?在以后的情况下,是否需要在所有数据节点上安装驱动程序才能使其连接到Oracle服务器。

1 个答案:

答案 0 :(得分:1)

  

当从Spark集群建立到Oracle服务器的连接时,是从执行代码的节点/框中还是从数据节点执行到Oracle服务器的JDBC连接?

数据总是从执行者节点加载。但是,驱动程序节点也需要访问数据库,才能获取元数据。

  

在以后的情况下,是否需要在所有数据节点上安装驱动程序才能使其连接到Oracle服务器。

是的。驱动程序必须存在于Spark应用程序使用的每个节点上。这可以通过以下方式完成:

  • 在每个节点的类路径上具有必需的jar。
  • 使用spark.jars在运行时分发jars
  • 使用spark.jars.packages使用Maven坐标获取jar。