我们可以使用Scala对Databricks Delta表执行UPDATE和DELETE操作吗?

时间:2019-05-29 13:39:12

标签: scala apache-spark delta-lake

我能够使用scala创建databricks增量表,并能够对其执行附加和覆盖操作。

有什么方法可以使用scala而不是通过Databricks运行时来执行DELETE和UPDATE操作。

val target = Seq(
  Data("a", "0"),
  Data("b", "1"),
  Data("c", "2"),
  Data("d", "3")
).toDF().write.format("delta").mode("overwrite").saveAsTable("target")
val DF1 = spark.table("target")
DF1.show()

val NewInserts = Seq(
  Data("a", "0"),
  Data("b", "1"),
  Data("c", "2"),
  Data("d", "3")
).toDF().write.format("delta").mode("append").saveAsTable("target")

val DF2 = spark.table("target")
DF2.show()

1 个答案:

答案 0 :(得分:0)

还没有!仅sql命令支持更新/删除/合并。 Databricks正在努力发布scala / python等效项。