我想使用Apache Kafka Connect来处理Linux服务器上的文件。
使用案例:我在子文件夹中有一个包含200万个XML文件的文件夹。我想按照他们的时间戳将它们全部推送到Apache Kafka。然后我想查看新文件的文件夹和子文件夹,并按顺序将它们推送到Kafka。
这可能吗?或者我是否需要拆分这个过程?插件是否可用?
答案 0 :(得分:5)
查看spooldir连接器插件https://github.com/jcustenborder/kafka-connect-spooldir
如果这不可行,请查看connectors.confluent.io以查看来自社区的其他插件。
订购保证将基于您的分区策略。如果您需要总排序,请使用一个分区。