什么将SparkSQL SQL查询写入JDBC表?

时间:2016-03-23 03:32:02

标签: jdbc apache-spark hive apache-spark-sql hiveql

用于Spark中的SQL查询。

为了阅读,我们可以通过

读取jdbc
CREATE TEMPORARY TABLE jdbcTable
USING org.apache.spark.sql.jdbc
OPTIONS dbtable ...;

对于write,使用SQL将数据写入远程JDBC表的查询是什么?

注意:我希望它是SQL查询。 plz提供纯粹的" SQL查询"当使用SparkSQL的HiveContext.sql(...)时可以写入jdbc。

4 个答案:

答案 0 :(得分:0)

<div data:role="option" data:aria-checked="false"></div> 将使用JDBC连接写入您的数据库:

INSERT OVERWRITE TABLE

答案 1 :(得分:-1)

您可以使用类似于以下内容的jdbc编写数据框。

df.write.jdbc(url, "TEST.BASICCREATETEST", new Properties)

答案 2 :(得分:-1)

是的,你可以。如果要将数据框保存到现有表中,可以使用

df.insertIntoJDBC(url, table, overwrite)

如果您想创建新表来保存此数据帧,您可以使用

df.createJDBCTable(url, table, allowExisting)

答案 3 :(得分:-1)

// sc is an existing SparkContext.
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)

sqlContext.sql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING)")
sqlContext.sql("LOAD DATA LOCAL INPATH 'examples/src/main/resources/kv1.txt' INTO TABLE src")