合并多个相同的Kafka Streams主题

时间:2016-11-24 23:35:06

标签: java high-availability apache-kafka-streams

我有2个Kafka主题从不同来源流式传输完全相同的内容,因此我可以在其中一个来源失败的情况下获得高可用性。 我尝试使用Kafka Streams 0.10.1.0将2个主题合并为1个输出主题,这样我就不会错过任何有关失败的消息,并且在所有源都启动时没有重复。

使用KStream的leftJoin方法时,其中一个主题可以没有问题(次要主题),但是当主要主题发生故障时,不会向输出主题发送任何内容。这似乎是因为,根据Kafka Streams developer guide

  

KStream-KStream leftJoin始终由来自主要流的记录驱动

因此,如果没有来自主流的记录,即使它们存在,它也不会使用辅助流中的记录。主流重新联机后,输出将恢复正常。

我还尝试使用outerJoin(添加重复记录),然后转换为KTable和groupByKey以删除重复项,

KStream mergedStream = stream1.outerJoin(stream2, 
    (streamVal1, streamVal2) -> (streamVal1 == null) ? streamVal2 : streamVal1,
    JoinWindows.of(2000L))

mergedStream.groupByKey()
            .reduce((value1, value2) -> value1, TimeWindows.of(2000L), stateStore))
            .toStream((key,value) -> value)
            .to(outputStream)

但我偶尔会复制一次。我还使用commit.interval.ms=200让KTable经常发送到输出流。

从多个相同的输入主题中获取一次输出的最佳方法是什么?

1 个答案:

答案 0 :(得分:7)

使用任何类型的连接都无法解决您的问题,因为您总是会丢失结果(内部连接以防一些流停止)或“重复”null(左连接或外部) -join以防两个流都在线)。有关Kafka Streams中连接语义的详细信息,请参阅https://cwiki.apache.org/confluence/display/KAFKA/Kafka+Streams+Join+Semantics

因此,我建议使用处理器API,您可以使用KStream process()transform()transformValues()与DSL混合搭配。有关详细信息,请参阅How to filter keys and value with a Processor using Kafka Stream DSL

您还可以向处理器(How to add a custom StateStore to the Kafka Streams DSL processor?)添加自定义商店,以使重复过滤容错。