如何将JDBC连接器与自定义加密一起使用

时间:2018-04-09 23:49:07

标签: apache-kafka apache-kafka-connect confluent confluent-schema-registry

我们需要使用JDBC Connector从RDBMS读取数据,然后在将数据推送到Kafka之前使用我们的自定义加密。并在出路时解密数据,然后将其推送到后续接收器。

为实现这一目标,我们是否需要提供以下的自定义实现(JDBC Connector Properties的一部分):

    def __init__(self, base_key, table_name):
    super(Daily_KPI, self).__init__(self, base_key=base_key, table_name=table_name)

OR

我们是否需要提供以下的自定义实现(生产者配置属性的一部分):

"key.converter": "io.confluent.connect.avro.AvroConverter",    ==>"key.converter": "OurCustomeAvroConverter"

如果它是key.serializer = class org.apache.kafka.common.serialization.ByteArraySerializer ==> key.serializer = Custom Implementation 那么我们如何设置此属性以便JDBC连接器可以选择它?

谢谢,

1 个答案:

答案 0 :(得分:1)

如果您使用Kafka连接JDBC连接器将数据从DBMS推送到kafka,官方Kafka连接文档说使用key.convertor和value.convertor属性。

https://docs.confluent.io/current/connect/userguide.html