如何使用Apache Spark管理Kafka中的事务?

时间:2017-11-03 13:47:23

标签: apache-spark transactions apache-kafka bigdata

我使用Kafka和spark作为ETL。

我想使用spark sql来保存oracle中的数据,如果事务失败,我可以在spark中回滚事务吗?

E.g。如何确保需要同时进行某些更新?例如,在文件中我们有t1和t2数据,我们想同时对t1和t2进行更改?交易概念?

提前谢谢

0 个答案:

没有答案