一直在尝试将我的EMR 5.11.0群集上的Spark 2.2.1连接到我们的Redshift商店。
我遵循的方法是 -
使用内置的Redshift JDBC
pyspark --jars /usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar
from pyspark.sql import SQLContext
sc
sql_context = SQLContext(sc)
redshift_url = "jdbc:redshift://HOST:PORT/DATABASE?user=USER&password=PASSWORD"
redshift_query = "select * from table;"
redshift_query_tempdir_storage = "s3://personal_warehouse/wip_dumps/"
# Read data from a query
df_users = sql_context.read \
.format("com.databricks.spark.redshift") \
.option("url", redshift_url) \
.option("query", redshift_query) \
.option("tempdir", redshift_query_tempdir_storage) \
.option("forward_spark_s3_credentials", "true") \
.load()
这给了我以下错误 -
回溯(最近一次呼叫最后一次):文件“”,第7行,in 文件“/usr/lib/spark/python/pyspark/sql/readwriter.py”, 第165行,载入中 return self._df(self._jreader.load())文件“/usr/lib/spark/python/lib/py4j-0.10.4-src.zip/py4j/java_gateway.py”, 第1133行,在调用文件中 “/usr/lib/spark/python/pyspark/sql/utils.py”,第63行,装饰 返回f(* a, kw)文件“/usr/lib/spark/python/lib/py4j-0.10.4-src.zip/py4j/protocol.py”,行 319,在get_return_value中*** py4j.protocol.Py4JJavaError:错误 调用o63.load时发生。 :java.lang.ClassNotFoundException: 无法找到数据源:com.databricks.spark.redshift。请找到 http://spark.apache.org/third-party-projects.html * * 的套餐 org.apache.spark.sql.execution.datasources.DataSource $ .lookupDataSource(DataSource.scala:546) 在 org.apache.spark.sql.execution.datasources.DataSource.providingClass $ lzycompute(DataSource.scala:87) 在 org.apache.spark.sql.execution.datasources.DataSource.providingClass(DataSource.scala:87) 在 org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:302) 在 org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:178) 在 org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:146) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) 在 sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 在java.lang.reflect.Method.invoke(Method.java:498)at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)at at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)at py4j.Gateway.invoke(Gateway.java:280)at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132) 在py4j.commands.CallCommand.execute(CallCommand.java:79)at py4j.GatewayConnection.run(GatewayConnection.java:214)at java.lang.Thread.run(Thread.java:748)引起: 抛出java.lang.ClassNotFoundException: com.databricks.spark.redshift.DefaultSource at java.net.URLClassLoader.findClass(URLClassLoader.java:381)at java.lang.ClassLoader.loadClass(ClassLoader.java:424)at java.lang.ClassLoader.loadClass(ClassLoader.java:357)at org.apache.spark.sql.execution.datasources.DataSource $$ anonfun $ 22 $$ anonfun $ $申请14.apply(DataSource.scala:530) 在 org.apache.spark.sql.execution.datasources.DataSource $$ anonfun $ 22 $$ anonfun $ $申请14.apply(DataSource.scala:530) 在scala.util.Try $ .apply(Try.scala:192)at org.apache.spark.sql.execution.datasources.DataSource $$ anonfun $ 22.apply(DataSource.scala:530) 在 org.apache.spark.sql.execution.datasources.DataSource $$ anonfun $ 22.apply(DataSource.scala:530) 在scala.util.Try.orElse(Try.scala:84)at org.apache.spark.sql.execution.datasources.DataSource $ .lookupDataSource(DataSource.scala:530) ......还有16个
有人可以帮忙告诉我在哪里错过了什么/犯了一个愚蠢的错误吗?
谢谢!
答案 0 :(得分:1)
您需要将Spark Redshift数据源添加到pyspark
命令:
pyspark --jars /usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar \
--packages com.databricks:spark-redshift_2.11:2.0.1
答案 1 :(得分:0)
我必须在EMR spark-submit选项中包含4个jar文件才能使其正常工作。
jar文件列表:
1。RedshiftJDBC41-1.2.12.1017.jar
2. spark-redshift_2.10-2.0.0.jar
您可以下载jar文件并将其存储在S3存储桶中,并在spark-submit选项中指向它:
--jars s3://<pathToJarFile>/RedshiftJDBC41-1.2.10.1009.jar,s3://<pathToJarFile>/minimal-json-0.9.4.jar,s3://<pathToJarFile>/spark-avro_2.11-3.0.0.jar,s3://<pathToJarFile>/spark-redshift_2.10-2.0.0.jar
然后最终像你的火花代码一样查询你的redshift:spark-redshift-example。
答案 2 :(得分:0)
问题在于spark无法在执行时立即找到必要的包。为此,在执行启动Python文件执行的.sh脚本时,您不仅需要添加驱动程序,还必须添加必要的软件包。
sudo pip install boto3
spark-submit --jars RedshiftJDBC42-1.2.15.1025.jar --packages com.databricks:spark-redshift_2.11:2.0.1 test.py
from pyspark.sql import SQLContext
sc
sql_context = SQLContext(sc)
redshift_url = "jdbc:redshift://HOST:PORT/DATABASE?user=USER&password=PASSWORD"
redshift_query = "select * from table;"
redshift_query_tempdir_storage = "s3://personal_warehouse/wip_dumps/"
# Read data from a query
df_users = sql_context.read \
.format("com.databricks.spark.redshift") \
.option("url", redshift_url) \
.option("query", redshift_query) \
.option("tempdir", redshift_query_tempdir_storage) \
.option("forward_spark_s3_credentials", "true") \
.load()
sudo sh test.sh
必须立即解决问题。