我正在使用 Java 语言将Java批处理转换为spark。
应用程序的现有代码包含许多使用 JDBC 的delete和update语句。
根据各种stackoverflow答案和其他网站上提供的信息,当前 sparkSQL 没有任何功能可以运行 DELETE 或 UPDATE 查询。
我可以在Spark代码中使用 JDBC ,但这不会降低应用程序的性能吗?
在SPARK中使用 DELETE / UPDATE statememts还有其他选择吗?
我正在使用 SPARK版本:2.3.0
我找不到与之相关的任何信息,因此提出了这个翔实的问题。