如何从mysql和Oracle加入SparkSQL数据?

时间:2015-12-30 16:56:19

标签: apache-spark-sql pyspark-sql

SparkSQL中是否可以加入来自mysql和Oracle数据库的数据?我试图加入它们,但是我在SPARK_CLASSPATH中设置多个jar(mysql和Oracle的jdbc驱动程序)时遇到了一些麻烦。  这是我的代码:

import os
import sys


os.environ['SPARK_HOME']="/home/x/spark-1.5.2"
sys.path.append("/home/x/spark-1.5.2/python/")
try:
    from pyspark import SparkContext, SparkConf
    from pyspark.sql import SQLContext
    MYSQL_DRIVER_PATH = "/home/x/spark-1.5.2/python/lib/mysql-connector-java-5.1.38-bin.jar"
    MYSQL_CONNECTION_URL = "jdbc:mysql://192.111.333.999:3306/db?user=us&password=pasw"

    ORACLE_DRIVER_PATH = "/home/x/spark-1.5.2/python/lib/ojdbc6.jar"
    Oracle_CONNECTION_URL = "jdbc:oracle:thin:user/pasw@192.111.333.999:1521:xe"

    # Define Spark configuration
    conf = SparkConf()
    conf.setMaster("local")
    conf.setAppName("MySQL_Oracle_imp_exp")

    # Initialize a SparkContext and SQLContext
    sc = SparkContext(conf=conf)
    #sc.addJar(MYSQL_DRIVER_PATH)
    sqlContext = SQLContext(sc)
    ora_tmp=sqlContext.read.format('jdbc').options(
        url=Oracle_CONNECTION_URL,
        dbtable="TABLE1",
        driver="oracle.jdbc.OracleDriver"
        ).load()
    ora_tmp.show()

    tmp2=sqlContext.load(
        source="jdbc",
        path=MYSQL_DRIVER_PATH,
        url=MYSQL_CONNECTION_URL,
        dbtable="(select city,zip from TABLE2 limit 10) as tmp2",
        driver="com.mysql.jdbc.Driver")
    c_rows=tmp2.collect()
   ....
except Exception as e:
    print  e
    sys.exit(1)

有人可以帮我解决这个问题吗? 在此先感谢:)

1 个答案:

答案 0 :(得分:1)

以下是您需要遵循的步骤:

  1. 首先将SPARK_CLASSPATH注册到其中一个数据库的jars说mysql using command os.environ [' SPARK_CLASSPATH'] =" /usr/share/java/mysql-connector-java.jar"
  2. 针对mysql数据库运行查询并分配给RDD
  3. 通过更改上述命令
  4. 中的路径,向第二个数据库的jar注册SPARK_CLASSPATH
  5. 针对第二个数据库运行查询
  6. 如果您在延迟评估方面遇到问题,请确保先将第一个数据集写入文件,然后再继续。