在我的kafka流应用程序中,我将一个主题用于多种对象类型,并序列化为JSON。我使用类名作为关键字,我的想法是,消费者将仅通过关键字过滤传入条目的子集,然后从JSON反序列化它们。我假设我可以在不定义Serdes的情况下应用初始过滤,但是在这种情况下,源流被推断为<Object,Object>
,并且以下代码无法编译:
return streamsBuilder.stream("topic")
.filter((k, v) -> k.equals("TestClassA"))
.groupByKey()
.reduce((oldValue, newValue) -> newValue,
Materialized.<String, TestClassA, KeyValueStore<Bytes, byte[]>>as(StoreManager.STORE_NAME)
.withKeySerde(Serdes.String())
.withValueSerde(new JsonSerde<>(TestClassA.class)));
如果我在流定义中添加类型,它将编译:
return streamsBuilder.stream(businessEntityTopicName, Consumed.with(Serdes.String(), new JsonSerde<>(TestClassA.class))) {...}
但是在这种情况下,例如当TestClassB的对象出现在主题中时,我会遇到运行时异常。 在这种情况下的最佳做法是什么?我应该对不同的对象使用不同的主题吗?
答案 0 :(得分:2)
如果您未在Serde
中指定任何#stream()
,并且不覆盖StreamsConfig
中的默认值,则Kafka Streams将使用字节数组serdes。这样,您将得到
KStream<byte[], byte[]> streams = builder.<byte[], byte[]>stream("topicName");
请注意,如果您没有在右侧指定正确的类型,则Java本身会退回到
KStream<Object, Object>
,如上所示。但是在两种情况下,运行时的实际类型都是byte[]
。
因此,您可以应用过滤器,但是它需要处理byte[]
数据类型。
我想,您实际要做的只是为密钥指定一个StringSerde
:
KStream<String, byte[]> streams = builder.<String, byte[]>("topicName", Consumed.with(Serdes.String(), null)); // null with fall back to defaul Serde from StreamConfig
这允许您在进行filter()
操作之前基于String
键来应用groupByKey()
。
答案 1 :(得分:0)
我有一个类似的用例。我让所有可能的对象继承一个公共接口(事件),并使用@JsonTypeInfo进行注释,以便杰克逊可以正确地反序列化该对象。
streamsBuilder.stream("topic")//need to add some sort of JSONSerde<Event> to this stream call, i use personally use the one bundled with spring
.filter((k, v) -> v instanceOf testClassA)