使用Spark 2.0.1将数据写入Redshift

时间:2016-12-02 12:07:05

标签: apache-spark spark-dataframe amazon-redshift

我正在做一个POC,我想把一些简单的数据集写入Redshift。

我有以下sbt文件:

  

name := "Spark_POC"

version := "1.0"

scalaVersion := "2.10.6"


libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "2.0.1"

libraryDependencies += "org.apache.spark" % "spark-sql_2.10" % "2.0.1"

resolvers += "jitpack" at "https://jitpack.io"

libraryDependencies += "com.databricks" %% "spark-redshift" % "3.0.0-preview1"

以下代码:

object Main extends App{

  val conf = new SparkConf().setAppName("Hello World").setMaster("local[2]")

  System.setProperty("hadoop.home.dir", "C:\\Users\\Srdjan Nikitovic\\Desktop\\scala\\hadoop")

  val spark = SparkSession
    .builder()
    .appName("Spark 1")
    .config(conf)
    .getOrCreate()


  val tempS3Dir = "s3n://access_key:secret_access_key@bucket_location"

  spark.sparkContext.hadoopConfiguration.set("fs.s3n.impl", "org.apache.hadoop.fs.s3native.NativeS3FileSystem")
  spark.sparkContext.hadoopConfiguration.set("fs.s3n.awsAccessKeyId", "access_key")
  spark.sparkContext.hadoopConfiguration.set("fs.s3n.awsSecretAccessKey", "secret_access_key")

  val data =
    spark
      .read
      .csv("hello.csv")

  data.write
    .format("com.databricks.spark.redshift")
    .option("url", "jdbc:redshift://redshift_server:5439/database?user=user_name&password=password")
    .option("dbtable", "public.testSpark")
    .option("forward_spark_s3_credentials",true)
    .option("tempdir", tempS3Dir)
    .mode("error")
    .save()
}

我从本地Windows机器运行代码,通过Intellij。

我收到以下错误:

  

线程“main”中的异常java.lang.ClassNotFoundException:无法加载Amazon Redshift JDBC驱动程序;有关下载和配置官方Amazon驱动程序的说明,请参阅自述文件。

我已经尝试过几乎所有版本的Spark-Redshift驱动程序(1.0.0,2.0.0,2.0.1和现在3.0.0-PREVIEW),但我无法使用此代码。

任何帮助?

1 个答案:

答案 0 :(得分:0)

首先需要下载https://docs.gradle.org/current/javadoc/org/gradle/api/Project.html

然后,您必须在运行此代码的环境中告诉Spark。例如。对于在EMR上运行的spark-shell

spark-shell … --jars /usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar