将PySpark连接到AWS Redshift时出错

时间:2018-01-15 05:26:31

标签: amazon-web-services apache-spark pyspark connection amazon-redshift

一直在尝试将我的EMR 5.11.0群集上的Spark 2.2.1连接到我们的Redshift商店。

我遵循的方法是 -

  1. 使用内置的Redshift JDBC

    pyspark --jars /usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar
    
    from pyspark.sql import SQLContext
    sc
    sql_context = SQLContext(sc)
    
    redshift_url = "jdbc:redshift://HOST:PORT/DATABASE?user=USER&password=PASSWORD"
    
    redshift_query  = "select * from table;"
    
    redshift_query_tempdir_storage = "s3://personal_warehouse/wip_dumps/"        
    
    # Read data from a query
    df_users = sql_context.read \
        .format("com.databricks.spark.redshift") \
        .option("url", redshift_url) \
        .option("query", redshift_query) \
        .option("tempdir", redshift_query_tempdir_storage) \
        .option("forward_spark_s3_credentials", "true") \
        .load()
    

    这给了我以下错误 -

  2.   

    回溯(最近一次呼叫最后一次):文件“”,第7行,in      文件“/usr/lib/spark/python/pyspark/sql/readwriter.py”,   第165行,载入中       return self._df(self._jreader.load())文件“/usr/lib/spark/python/lib/py4j-0.10.4-src.zip/py4j/java_gateway.py”,   第1133行,在调用文件中   “/usr/lib/spark/python/pyspark/sql/utils.py”,第63行,装饰       返回f(* a, kw)文件“/usr/lib/spark/python/lib/py4j-0.10.4-src.zip/py4j/protocol.py”,行   319,在get_return_value中*** py4j.protocol.Py4JJavaError:错误   调用o63.load时发生。 :java.lang.ClassNotFoundException:   无法找到数据源:com.databricks.spark.redshift。请找到   http://spark.apache.org/third-party-projects.html * * 的套餐   org.apache.spark.sql.execution.datasources.DataSource $ .lookupDataSource(DataSource.scala:546)     在   org.apache.spark.sql.execution.datasources.DataSource.providingClass $ lzycompute(DataSource.scala:87)     在   org.apache.spark.sql.execution.datasources.DataSource.providingClass(DataSource.scala:87)     在   org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:302)     在   org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:178)     在   org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:146)     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)at   sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)     在   sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)     在java.lang.reflect.Method.invoke(Method.java:498)at   py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)at at   py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)at   py4j.Gateway.invoke(Gateway.java:280)at   py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)     在py4j.commands.CallCommand.execute(CallCommand.java:79)at   py4j.GatewayConnection.run(GatewayConnection.java:214)at   java.lang.Thread.run(Thread.java:748)引起:   抛出java.lang.ClassNotFoundException:   com.databricks.spark.redshift.DefaultSource at   java.net.URLClassLoader.findClass(URLClassLoader.java:381)at   java.lang.ClassLoader.loadClass(ClassLoader.java:424)at   java.lang.ClassLoader.loadClass(ClassLoader.java:357)at   org.apache.spark.sql.execution.datasources.DataSource $$ anonfun $ 22 $$ anonfun $ $申请14.apply(DataSource.scala:530)     在   org.apache.spark.sql.execution.datasources.DataSource $$ anonfun $ 22 $$ anonfun $ $申请14.apply(DataSource.scala:530)     在scala.util.Try $ .apply(Try.scala:192)at   org.apache.spark.sql.execution.datasources.DataSource $$ anonfun $ 22.apply(DataSource.scala:530)     在   org.apache.spark.sql.execution.datasources.DataSource $$ anonfun $ 22.apply(DataSource.scala:530)     在scala.util.Try.orElse(Try.scala:84)at   org.apache.spark.sql.execution.datasources.DataSource $ .lookupDataSource(DataSource.scala:530)     ......还有16个

    有人可以帮忙告诉我在哪里错过了什么/犯了一个愚蠢的错误吗?

    谢谢!

3 个答案:

答案 0 :(得分:1)

您需要将Spark Redshift数据源添加到pyspark命令:

pyspark --jars /usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar \
        --packages com.databricks:spark-redshift_2.11:2.0.1

答案 1 :(得分:0)

我必须在EMR spark-submit选项中包含4个jar文件才能使其正常工作。

jar文件列表:

1。RedshiftJDBC41-1.2.12.1017.jar

2. spark-redshift_2.10-2.0.0.jar

3。minimal-json-0.9.4.jar

4. spark-avro_2.11-3.0.0.jar

您可以下载jar文件并将其存储在S3存储桶中,并在spark-submit选项中指向它:

--jars s3://<pathToJarFile>/RedshiftJDBC41-1.2.10.1009.jar,s3://<pathToJarFile>/minimal-json-0.9.4.jar,s3://<pathToJarFile>/spark-avro_2.11-3.0.0.jar,s3://<pathToJarFile>/spark-redshift_2.10-2.0.0.jar

然后最终像你的火花代码一样查询你的redshift:spark-redshift-example

答案 2 :(得分:0)

问题在于spark无法在执行时立即找到必要的包。为此,在执行启动Python文件执行的.sh脚本时,您不仅需要添加驱动程序,还必须添加必要的软件包。

脚本test.sh

sudo pip install boto3

spark-submit --jars RedshiftJDBC42-1.2.15.1025.jar --packages com.databricks:spark-redshift_2.11:2.0.1 test.py

脚本test.py

from pyspark.sql import SQLContext
sc
sql_context = SQLContext(sc)

redshift_url = "jdbc:redshift://HOST:PORT/DATABASE?user=USER&password=PASSWORD"

redshift_query  = "select * from table;"

redshift_query_tempdir_storage = "s3://personal_warehouse/wip_dumps/" 



 # Read data from a query



df_users = sql_context.read \
    .format("com.databricks.spark.redshift") \
    .option("url", redshift_url) \
    .option("query", redshift_query) \
    .option("tempdir", redshift_query_tempdir_storage) \
    .option("forward_spark_s3_credentials", "true") \
    .load()

运行脚本test.sh

  

sudo sh test.sh

必须立即解决问题。