标签: java apache-spark apache-spark-sql spark-streaming spark-dataframe
我正在编写一个消耗来自Kafka&写入RDBMS。我目前卡住了,因为我不知道哪种方法可以将这种流数据存储到RDBMS中。
在搜索时,我发现了一些方法 -
DataFrame
JdbcRDD
PreparedStatement
foreachPartition()
PreparedStatement.insertBatch()
我无法弄清楚哪一种是实现目标的最有效方法。
存储&存储的情况也是如此。从HBase检索数据。
任何人都可以帮我吗?