标签: apache-kafka spark-streaming databricks
我有一个流媒体Job,它从kafka主题中读取Json格式的消息。方案是从kafka主题读取并写入到配置单元表中,在该表中我启用了自动偏移提交。
问题:如果将数据写入配置单元表时我的工作失败,我将删除这些记录。我该如何恢复该数据,或者有什么方法可以确保在通过主题进行流式传输时不会丢失任何数据?