Kafka在一个主题中流化多个对象并进行反序列化

时间:2018-09-10 10:23:58

标签: apache-kafka apache-kafka-streams

在我的kafka流应用程序中,我将一个主题用于多种对象类型,并序列化为JSON。我使用类名作为关键字,我的想法是,消费者将仅通过关键字过滤传入条目的子集,然后从JSON反序列化它们。我假设我可以在不定义Serdes的情况下应用初始过滤,但是在这种情况下,源流被推断为<Object,Object>,并且以下代码无法编译:

 return streamsBuilder.stream("topic")
            .filter((k, v) -> k.equals("TestClassA"))
            .groupByKey()
            .reduce((oldValue, newValue) -> newValue,
                    Materialized.<String, TestClassA, KeyValueStore<Bytes, byte[]>>as(StoreManager.STORE_NAME)
                    .withKeySerde(Serdes.String())
                    .withValueSerde(new JsonSerde<>(TestClassA.class)));

如果我在流定义中添加类型,它将编译:

return streamsBuilder.stream(businessEntityTopicName, Consumed.with(Serdes.String(), new JsonSerde<>(TestClassA.class))) {...}

但是在这种情况下,例如当TestClassB的对象出现在主题中时,我会遇到运行时异常。 在这种情况下的最佳做法是什么?我应该对不同的对象使用不同的主题吗?

2 个答案:

答案 0 :(得分:2)

如果您未在Serde中指定任何#stream(),并且不覆盖StreamsConfig中的默认值,则Kafka Streams将使用字节数组serdes。这样,您将得到

KStream<byte[], byte[]> streams = builder.<byte[], byte[]>stream("topicName");
  

请注意,如果您没有在右侧指定正确的类型,则Java本身会退回到KStream<Object, Object>,如上所示。但是在两种情况下,运行时的实际类型都是byte[]

因此,您可以应用过滤器,但是它需要处理byte[]数据类型。

我想,您实际要做的只是为密钥指定一个StringSerde

KStream<String, byte[]> streams = builder.<String, byte[]>("topicName", Consumed.with(Serdes.String(), null)); // null with fall back to defaul Serde from StreamConfig

这允许您在进行filter()操作之前基于String键来应用groupByKey()

答案 1 :(得分:0)

我有一个类似的用例。我让所有可能的对象继承一个公共接口(事件),并使用@JsonTypeInfo进行注释,以便杰克逊可以正确地反序列化该对象。

streamsBuilder.stream("topic")//need to add some sort of JSONSerde<Event> to this stream call, i use personally use the one bundled with spring
            .filter((k, v) -> v instanceOf testClassA)