如何重复使用kafka流而不是一次又一次地打开流

时间:2019-03-21 17:10:31

标签: apache-kafka-streams

已从主题创建流,并在stream.start()之后基于过滤器成功检索了我的数据。但是我的问题是,当我尝试再次过滤..必须经历创建一个生成器和ksteram ...这些kStream将从主题开始偏移0到结束寻找数据并产生结果..但是,此浏览从0开始的这个主题,我的所有要求都无助于获得适当的SLA ...是否有一种方法可以实现一次性购买流并在需要时进行聚合?

我总是开始并关闭我的信息流...

请帮助实现方法,任何示例程序都可以做到

我的示例程序

  public class EventStream{
    public static void create stream(String[] args) {
            // TODO Auto-generated method stub
            Properties props = new Properties();
            props.put(StreamsConfig.APPLICATION_ID_CONFIG, "event_stream");
            props.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
            props.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass());
            props.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG, Serdes.String().getClass());

            final StreamsBuilder builder = new StreamsBuilder();
            final KStream<String, Tracking> trackevent= build.stream("event",Consumed.with((serdes.String(),Serds.serderFrom(test.calss,test.class))));
            trackevent.filter((k,v) -> "test".equals(v.getStr())).foreach((k,v) -> System.Out.Println(V));
            trackevent.cleanUp();
            trackevent.start;

        }

    }

0 个答案:

没有答案