使用JBDC读取spark scala中的sql文件收集Warehouse错误

时间:2018-01-13 12:14:47

标签: mysql scala apache-spark jdbc warehouse

我正在尝试使用Spark Scala读取MySQL文件。以下是我试过的代码

val dataframe_mysql = sqlContext.read.format("jdbc")
 .option("url","jdbc:mysql://xx.xx.xx.xx:xx")
 .option("driver", "com.mysql.jdbc.Driver")
 .option("dbtable", "schema.xxxx")
 .option("user", "xxxx").option("password", "xxxxx").load()

但我收集仓库路径错误如下:

  

仓库路径是'file:/ C:/ Users / Owner / eclipse-workspace / stProject / spark-ware house /'。 org.apache.spark.sql中org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD $ .res olveTable(JDBCRDD.sc ala:72)中的线程“main”java.lang.NullPointerException中的异常。 execution.datasources.jdbc.JDBCRelation。(JDBCRelation .scala:113)at org.apache.spark.sql.execution.datasources.jdbc.JdbcRelation Provider.createRelat ion(JdbcRelationProv ider.scala:45)at < / p>

0 个答案:

没有答案