我们需要使用JDBC Connector从RDBMS读取数据,然后在将数据推送到Kafka之前使用我们的自定义加密。并在出路时解密数据,然后将其推送到后续接收器。
为实现这一目标,我们是否需要提供以下的自定义实现(JDBC Connector Properties的一部分):
def __init__(self, base_key, table_name):
super(Daily_KPI, self).__init__(self, base_key=base_key, table_name=table_name)
OR
我们是否需要提供以下的自定义实现(生产者配置属性的一部分):
"key.converter": "io.confluent.connect.avro.AvroConverter", ==>"key.converter": "OurCustomeAvroConverter"
如果它是key.serializer = class org.apache.kafka.common.serialization.ByteArraySerializer ==> key.serializer = Custom Implementation
那么我们如何设置此属性以便JDBC连接器可以选择它?
谢谢,
答案 0 :(得分:1)
如果您使用Kafka连接JDBC连接器将数据从DBMS推送到kafka,官方Kafka连接文档说使用key.convertor和value.convertor属性。