适用于AVRO基本类型的Serde类

时间:2018-08-21 20:03:19

标签: java apache-kafka avro apache-kafka-streams confluent

我正在用Java编写一个Kafka流应用程序,该应用程序将接受由连接器创建的输入主题,该连接器将模式注册表和avro用于键和值转换器。连接器产生以下架构:

key-schema: "int"
value-schema:{
"type": "record",
"name": "User",
"fields": [
    {"name": "firstname", "type": "string"},
    {"name": "lastname",  "type": "string"}
]}

实际上,有几个主题,键架构始终是“ int”,而值架构始终是某种记录(用户,产品等)。我的代码包含以下定义

Map<String, String> serdeConfig = Collections.singletonMap("schema.registry.url", schemaRegistryUrl);

Serde<User> userSerde = new SpecificAvroSerde<>();
userSerde.configure(serdeConfig, false);

起初,我尝试使用类似 Consumed.with(Serdes.Integer(), userSerde);,但不起作用,因为Serdes.Integer()期望整数使用4个字节进行编码,但是avro使用可变长度编码。使用Consumed.with(Serdes.Bytes(), userSerde);可行,但是我真的想要int而不是字节,所以我将代码更改为此

KafkaAvroDeserializer keyDeserializer = new KafkaAvroDeserializer()
KafkaAvroSerializer keySerializer = new KafkaAvroSerializer();
keyDeserializer.configure(serdeConfig, true); 
keySerializer.configure(serdeConfig, true);
Serde<Integer> keySerde = (Serde<Integer>)(Serde)Serdes.serdeFrom(keySerializer, keyDeserializer);

这使编译器产生警告(它不像(Serde<Integer>)(Serde)强制转换),但是它允许我使用

Consumed.with(keySerde, userSerde);并获得一个整数作为密钥。这工作得很好,我的应用程序表现出预期(很好!!!)。但是,现在我想为键/值定义默认Serde,但无法使其正常工作。

设置默认值Serde很简单:

streamsConfiguration.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG, SpecificAvroSerde.class);

但是我不知道如何定义默认的密钥序列。

我尝试过

  1. streamsConfiguration.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, keySerde.getClass().getName()); 产生运行时错误:找不到org.apache.kafka.common.serialization.Serdes $ WrapperSerde
  2. 的公共无参数构造函数
  3. streamsConfiguration.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, SpecificAvroSerde.class); 产生运行时错误:java.lang.Integer无法强制转换为org.apache.avro.specific.SpecificRecord

我想念什么? 谢谢。

3 个答案:

答案 0 :(得分:3)

这是一个已知问题。原始Avro类型不适用于Confluent的AvroSerdes,因为Serdes仅适用于GenericAvroRecordSpecificAvroRecord

比较https://github.com/confluentinc/schema-registry/tree/master/avro-serde/src/main/java/io/confluent/kafka/streams/serdes/avro

因此,基于KafkaAvroSerializerKafkaAvroDeserializer构建自己的Serde是正确的方法。为了能够将其作为默认Serde传递到配置中,您不能使用Serdes.serdeFrom,因为由于泛型类型擦除而丢失了类型信息。

但是,您可以实现自己的类,该类扩展了Serde接口,并将您的自定义类传递到配置中:

public class MySerde extends Serde<Integer> {
    // use KafkaAvroSerializer and KafkaAvroDeserializer and cast `Object` to `Integer`
}

config.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, MySerde.class);

答案 1 :(得分:1)

如果您想与KAFKA消费者和生产者一起使用@Thiyaga Rajan的出色解决方案,则可以使用

consumerConfig.put(KEY_DESERIALIZER_CLASS_CONFIG,GenericPrimitiveAvroSerDe.class);
producerConfig.put(KEY_SERIALIZER_CLASS_CONFIG, GenericPrimitiveAvroSerDe.class);

将此添加到课程中

import org.apache.kafka.common.serialization.Serializer;
import org.apache.kafka.common.serialization.Deserializer;
import org.apache.kafka.common.serialization.Serde;
import org.apache.kafka.common.serialization.Serdes;

    public class GenericPrimitiveAvroSerDe<T> implements Serde<T>, Serializer<T>, Deserializer<T> {

      @Override
      public T deserialize(String topic, byte[] data) {
        return this.deserializer().deserialize(topic, data);
      }

      @Override
      public byte[] serialize(String topic, T data) {
        return this.serializer().serialize(topic, data);
      }

    ...

    }

答案 2 :(得分:0)

感谢@Matthias J. Sax的提示,我想发布有关解决方案的工作。请免费进行增强。

import java.util.Collections;
import java.util.Map;

import org.apache.kafka.common.serialization.Deserializer;
import org.apache.kafka.common.serialization.Serde;
import org.apache.kafka.common.serialization.Serdes;
import org.apache.kafka.common.serialization.Serializer;

import io.confluent.kafka.schemaregistry.client.SchemaRegistryClient;
import io.confluent.kafka.serializers.KafkaAvroDeserializer;
import io.confluent.kafka.serializers.KafkaAvroSerializer;

public class GenericPrimitiveAvroSerDe<T> implements Serde<T> {

    private final Serde<Object> inner;

    /**
     * Constructor used by Kafka Streams.
     */
    public GenericPrimitiveAvroSerDe() {
        inner = Serdes.serdeFrom(new KafkaAvroSerializer(), new KafkaAvroDeserializer());
    }

    public GenericPrimitiveAvroSerDe(SchemaRegistryClient client) {
        this(client, Collections.emptyMap());
    }

    public GenericPrimitiveAvroSerDe(SchemaRegistryClient client, Map<String, ?> props) {
        inner = Serdes.serdeFrom(new KafkaAvroSerializer(client), new KafkaAvroDeserializer(client, props));
    }

    @Override
    public void configure(final Map<String, ?> serdeConfig, final boolean isSerdeForRecordKeys) {
        inner.serializer().configure(serdeConfig, isSerdeForRecordKeys);
        inner.deserializer().configure(serdeConfig, isSerdeForRecordKeys);
    }

    @Override
    public void close() {
        // TODO Auto-generated method stub
        inner.serializer().close();
        inner.deserializer().close();

    }

    @SuppressWarnings("unchecked")
    @Override
    public Serializer<T> serializer() {
        // TODO Auto-generated method stub
        Object obj = inner.serializer();
        return (Serializer<T>) obj;

    }

    @SuppressWarnings("unchecked")
    @Override
    public Deserializer<T> deserializer() {
        // TODO Auto-generated method stub
        Object obj = inner.deserializer();
        return (Deserializer<T>) obj;

    }

}

用作默认流配置:

props.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG,GenericPrimitiveAvroSerDe.class);
            props.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG,GenericPrimitiveAvroSerDe.class);

覆盖默认值:

final Map<String, String> serdeConfig = Collections.singletonMap("schema.registry.url",
                                                                        "http://localhost:8081");
       final GenericPrimitiveAvroSerDe<String> keyGenericAvroSerde = new GenericPrimitiveAvroSerDe<String>();
       keyGenericAvroSerde.configure(serdeConfig, true); // `true` for record keys
       final GenericPrimitiveAvroSerDe<Long> valueGenericAvroSerde = new GenericPrimitiveAvroSerDe<Long>();
       valueGenericAvroSerde.configure(serdeConfig, false); // `false` for record values