标签: apache-spark dataframe hive
我们有一个非常大的数据框,并继续将其摄入HIVE表,我们认为这已经存在 当摄入正在发生时,如果某些事情发生故障并且完全摄入不可能发生 那么, SPARK 是否会提取部分数据,想知道后端会发生什么。 是否需要再次摄取所有数据?
提前致谢