我正在尝试从我制作的简单生成器中读取数据。由于某种原因,无论何时我运行使用者,它都不会看到/产生我产生的任何数据。谁能给我任何下一步的指导?
我在下面包括了生产者和消费者的代码:
制作人:
public class AvroProducer {
public static void main(String[] args) {
String bootstrapServers = "localhost:9092";
String topic = "trackingReportsReceived";
//create Producer properties
Properties properties = new Properties();
properties.setProperty(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
properties.setProperty(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
properties.setProperty(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, KafkaAvroSerializer.class.getName());
properties.setProperty("schema.registry.url", "http://localhost:8081");
//create the producer
KafkaProducer<String, trackingReport> producer = new KafkaProducer<>(properties);
//creating my own event
trackingReport event = trackingReport.newBuilder()
.setRemoteEventUID(2)
.setReceivedPacketUID(2)
.setRemoteUnitAID(2)
.setEventTime(2)
.setEventLocationStampUID(3)
.setEventLatitude(2)
.setEventLongitude(2)
.setEventOdometer(3)
.setEventSpeed(3)
.setEventCourse(3)
.build();
//create a producer record
ProducerRecord<String, trackingReport> eventRecord = new ProducerRecord<>(topic, event);
//send data - asynchronous
producer.send(eventRecord, new Callback() {
@Override
public void onCompletion(RecordMetadata recordMetadata, Exception e) {
if (e == null) {
System.out.println("Success!");
System.out.println(recordMetadata.toString());
} else {
e.printStackTrace();
}
}
});
//flush data
producer.flush();
//flush and close producer
producer.close();
消费者:
public class AvroConsumer {
public static void main(String[] args) {
final Logger logger = LoggerFactory.getLogger(AvroConsumer.class);
String bootstrapServers = "localhost:9092";
//create Consumer properties
Properties properties = new Properties();
properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
properties.put(ConsumerConfig.GROUP_ID_CONFIG, "consumer");
properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false");
properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
// properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000");
properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, KafkaAvroDeserializer.class.getName());
properties.put("schema.registry.url", "http://localhost:8081");
properties.put("specific.avro.reader", "true");
//create the consumer
KafkaConsumer<String, trackingReport> consumer = new KafkaConsumer<>(properties);
String topic = "trackingReportsReceived";
consumer.subscribe(Collections.singletonList(topic));
System.out.println("Waiting for data...");
// try {
while (true) {
ConsumerRecords<String, trackingReport> records = consumer.poll(100);
for (ConsumerRecord<String, trackingReport> record : records) {
trackingReport trackingrep = record.value();
System.out.println(trackingrep);
}
consumer.commitSync();
}
// } catch (Exception e) {
// logger.error("Exception occured while consuming messages...", e);
// } finally {
// consumer.close();
// }
}
}
生产者在工作,而消费者却没有。
答案 0 :(得分:0)
如果在产生记录后运行使用者,它将不会收到它们。与一样,如果以前没有为该组提交任何偏移量,那么使用者将从结束主题开始。
可能在您的kafka-console-consumer.sh中,您具有--from-beginning标志,该标志迫使消费者从主题的开头开始阅读。
当使用者开始将其位置移至主题的开头时,可以显式使用seekToBeginning()。
答案 1 :(得分:0)
使用控制台使用者脚本时,您是否使用了与Java使用者中的组相同的组ID?
如果您随后进行验证,请尝试在代码中使用新的使用者组。
如果有效,则意味着控制台使用者使用该组ID的使用者读取最后一个当前偏移量,并且当您启动具有相同组ID的Java使用者时,他尝试读取以下内容:该偏移量是最后一个偏移量。因此,没有要读取的消息。
为验证您还可以先启动Java使用者,然后再启动生产者,如果看到消息,则表明控制台和Java使用者具有相同的组ID。