我正在使用Databricks spark-redshift将DataFrames写入Redshift。我有两个DataFrame附加到两个单独的表,但我需要这个以原子方式发生,即如果第二个DataFrame无法写入其表,我将需要第一个也撤消。有没有办法做到这一点?
答案 0 :(得分:0)
解决方案是为每个目标表创建一个临时表。将Spark结果写入数据库:
DELETE FROM staging_table
)redshift-sqlalchemy
包)。一次只能运行一个Spark应用程序实例,即你不能同时写两个作业写入临时表,否则结果数据会赢得&#39 ; t有效。