我有一个类似于以下内容的kafka es接收器属性文件
name=elasticsearch.sink.direct
connector.class=io.confluent.connect.elasticsearch.ElasticsearchSinkConnector
tasks.max=16
topics=data.my_setting
connection.url=http://dev-elastic-search01:9200
type.name=logs
topic.index.map=data.my_setting:direct_my_setting_index
batch.size=2048
max.buffered.records=32768
flush.timeout.ms=60000
max.retries=10
retry.backoff.ms=1000
schema.ignore=true
transforms=InsertKey,ExtractId
transforms.InsertKey.type=org.apache.kafka.connect.transforms.ValueToKey
transforms.InsertKey.fields=MY_SETTING_ID
transforms.ExtractId.type=org.apache.kafka.connect.transforms.ExtractField$Key
transforms.ExtractId.field=MY_SETTING_ID
这非常适合单个主题(data.my_setting)。我想对来自多个主题的数据使用相同的连接器。不同主题中的消息将具有不同的键,我需要转换它。我想知道是否有一种方法可以使用else语句,条件是主题名称或消息中的单个字段,以便我可以然后对密钥进行不同的转换。所有传入的消息都是带有模式和有效负载的json。
基于答案的更新:
在我的jdbc连接器中,按如下所示添加密钥:
name=data.my_setting
connector.class=io.confluent.connect.jdbc.JdbcSourceConnector
poll.interval.ms=500
tasks.max=4
mode=timestamp
query=SELECT * FROM MY_TABLE with (nolock)
timestamp.column.name=LAST_MOD_DATE
topic.prefix=investment.ed.data.app_setting
transforms=ValueToKey
transforms.ValueToKey.type=org.apache.kafka.connect.transforms.ValueToKey
transforms.ValueToKey.fields=MY_SETTING_ID
但是,当Elasticsearch接收器读取此连接器产生的消息时,我仍然会收到错误消息
org.apache.kafka.connect.errors.ConnectException: Exiting WorkerSinkTask due to unrecoverable exception.
Caused by: org.apache.kafka.connect.errors.DataException: STRUCT is not supported as the document id
有效负载如下:
{
"schema": {
"type": "struct",
"fields": [{
"type": "int32",
"optional": false,
"field": "MY_SETTING_ID"
}, {
"type": "string",
"optional": true,
"field": "MY_SETTING_NAME"
}
],
"optional": false
},
"payload": {
"MY_SETTING_ID": 9,
"MY_SETTING_NAME": "setting_name"
}
}
连接独立属性文件如下:
bootstrap.servers=localhost:9092
key.converter=org.apache.kafka.connect.json.JsonConverter
value.converter=org.apache.kafka.connect.json.JsonConverter
converter.schemas.enable=false
internal.key.converter=org.apache.kafka.connect.json.JsonConverter
internal.value.converter=org.apache.kafka.connect.json.JsonConverter
internal.key.converter.schemas.enable=false
internal.value.converter.schemas.enable=false
offset.storage.file.filename=/apps/{env}/logs/infrastructure/offsets/connect.offsets
rest.port=8084
plugin.path=/usr/share/java
有没有一种方法可以实现我的目标,那就是将来自多个主题(在我的情况下是db表)的消息发送给一个主题,这些主题将具有自己唯一的ID(也将是ES中的文档ID)。单个ES接收器。
我可以使用avro来完成此任务吗?有没有办法在架构注册表中定义密钥,还是会遇到相同的问题?
答案 0 :(得分:0)
这是不可能的。如果关键字段不同,则需要多个连接器。
要考虑的一个选项是通过流处理器(例如,Kafka Streams,KSQL,Spark Streaming等)预处理您的Kafka主题,以标准化关键字段,以便您可以使用单个连接器。这取决于您要构建的内容是值得进行还是过度使用。