使用Kafka流聚合大量数据

时间:2017-12-08 10:34:57

标签: apache-kafka aggregate apache-kafka-streams

我尝试使用Kafka Streams使用不同大小的时间窗来聚合大量数据。

我将缓存大小增加到2 GB,但是当我在1小时内设置窗口大小时,CPU负载为100%,应用程序开始变慢。

我的代码如下所示:

val tradeStream = builder.stream<String, Trade>(configuration.topicNamePattern, Consumed.with(Serdes.String(), JsonSerde(Trade::class.java)))

tradeStream
    .groupBy(
            { _, trade -> trade.pair },
            Serialized.with(JsonSerde(TokensPair::class.java), JsonSerde(Trade::class.java))
    )
    .windowedBy(TimeWindows.of(windowDuration).advanceBy(windowHop).until(windowDuration))
    .aggregate(
        { Ticker(windowDuration) },
        { _, newValue, aggregate -> aggregate.add(newValue) },
        Materialized.`as`<TokensPair, Ticker>(storeByPairs)
                .withKeySerde(JsonSerde(TokensPair::class.java))
                .withValueSerde(JsonSerde(Ticker::class.java))
    )
    .toStream()
    .filter { tokensPair, _ -> filterFinishedWindow(tokensPair.window(), windowHop) }
    .map { tokensPair, ticker -> KeyValue(
            TickerKey(ticker.tokensPair!!, windowDuration, Timestamp(tokensPair.window().start())),
            ticker.calcPrice()
    )}
    .to(topicName, Produced.with(JsonSerde(TickerKey::class.java), JsonSerde(Ticker::class.java)))

此外,在将聚合数据发送到kafka主题之前,它们会按窗口的结束时间进行过滤,以便发送到刚刚完成的主题窗口。

也许有更好的方法来实现这种聚合?

1 个答案:

答案 0 :(得分:0)

如果不了解系统,就很难诊断出来。

群集中有多少个分区? 您运行了多少个流应用程序? 流应用程序是否在同一台机器上运行? 你是否使用压缩有效载荷? 它适用于较小的间隔吗?

希望有所帮助。