考虑此Kafka Streams驱动程序
public class TestDriver {
private static final String SOURCE = "SOURCE";
public static void main(String[] args) throws Exception {
ProtoDeserializer<Message> protoDeserializer = new ProtoDeserializer<>(Message.parser());
ProtoSerializer<Message> protoSerializer = new ProtoSerializer<>();
StringDeserializer stringDerializer = new StringDeserializer();
StringSerializer stringSerializer = new StringSerializer();
Topology topologyBuilder = new Topology();
topologyBuilder.addSource(SOURCE, stringDerializer, protoDeserializer, "input-messages")
.addProcessor(DummyProcessor.NAME, DummyProcessor::new, SOURCE)
.addSink("MAIN", "output-messages", stringSerializer, protoSerializer, DummyProcessor.NAME)
;
KafkaStreams streams = new KafkaStreams(topologyBuilder, getConfig());
streams.cleanUp();
streams.start();
System.out.println(streams.toString());
Runtime.getRuntime().addShutdownHook(new Thread(streams::close));
}
private static Properties getConfig() {
Properties config = new Properties();
config.put(StreamsConfig.CLIENT_ID_CONFIG, "test.stream-processor");
config.put(StreamsConfig.APPLICATION_ID_CONFIG, "test.stream-processor");
config.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "broker-1:9092,broker-2:9092,broker-3:9092");
config.put(StreamsConfig.REPLICATION_FACTOR_CONFIG, 3);
config.put(StreamsConfig.NUM_STREAM_THREADS_CONFIG, 10);
config.put(StreamsConfig.DEFAULT_TIMESTAMP_EXTRACTOR_CLASS_CONFIG, WallclockTimestampExtractor.class);
return config;
}
}
问题是,当没有处理器添加到拓扑中(不包括.addProcessor()
时),从源到接收器的处理速度都很好(意味着我目前每秒产生25k消息,并且没有问题)赶上来。)
但是,添加DummyProcessor
时,它突然处理的最大速度为3k消息/秒(600k字节)。
DummyProcessor基本上不执行任何操作:
public class DummyProcessor extends AbstractProcessor<String, Message> {
public static final String NAME = "DUMMY_PROCESSOR";
public void process(String key, Message originalMessage) {
context().forward(key, originalMessage);
context().commit();
}
}
是否要添加单个“空”处理器以提高Streams性能?是什么原因造成的? Kafka Streams是否如此智能,以至于当没有处理器时,它不会执行protobuf serde,而只会转发收到的数据?无论如何要加快速度?
以这种速度,我需要多出数千个cpu线程才能处理我的所有数据,因为25k消息/秒是我拥有的1%。听起来很多。
答案 0 :(得分:2)
问题是由于经常请求 commit 引起的。
您根本不需要致电ProcessorContext:commit()
。
基于commit.interval.ms
属性的Kafka Streams执行提交(默认为30000 ms
)。如果只设置一次语义,则其值将不同。您可以在https://kafka.apache.org/documentation/#streamsconfigs中进行详细说明。
如果在某些情况下需要更频繁地提交,则可以致电ProcessorContext:commit()
。但是您必须记住,该提交不是立即(直接)进行的。它将仅标志设置为尽快提交。