标签: apache-spark transactions apache-kafka bigdata
我使用Kafka和spark作为ETL。
我想使用spark sql来保存oracle中的数据,如果事务失败,我可以在spark中回滚事务吗?
E.g。如何确保需要同时进行某些更新?例如,在文件中我们有t1和t2数据,我们想同时对t1和t2进行更改?交易概念?
提前谢谢