我有一个用于mongodb的接收器连接器,该连接器从某个主题获取json并将其放入mongoDB集合中。但是,当我从生产者向该主题发送无效的JSON(例如,带有无效的特殊字符“)=> {"id":1,"name":"\"}
时,连接器停止。我尝试使用errors.tolerance = all,但是发生了同样的事情应该发生的是,连接器应该跳过并记录无效的JSON,并保持连接器运行。我的分布式模式连接器如下:
{
"name": "sink-mongonew_test1",
"config": {
"connector.class": "com.mongodb.kafka.connect.MongoSinkConnector",
"topics": "error7",
"connection.uri": "mongodb://****:27017",
"database": "abcd",
"collection": "abc",
"type.name": "kafka-connect",
"key.ignore": "true",
"document.id.strategy": "com.mongodb.kafka.connect.sink.processor.id.strategy.PartialValueStrategy",
"value.projection.list": "id",
"value.projection.type": "whitelist",
"writemodel.strategy": "com.mongodb.kafka.connect.sink.writemodel.strategy.UpdateOneTimestampsStrategy",
"delete.on.null.values": "false",
"key.converter": "org.apache.kafka.connect.json.JsonConverter",
"value.converter": "org.apache.kafka.connect.json.JsonConverter",
"key.converter.schemas.enable": "false",
"value.converter.schemas.enable": "false",
"errors.tolerance": "all",
"errors.log.enable": "true",
"errors.log.include.messages": "true",
"errors.deadletterqueue.topic.name": "crm_data_deadletterqueue",
"errors.deadletterqueue.topic.replication.factor": "1",
"errors.deadletterqueue.context.headers.enable": "true"
}
}
答案 0 :(得分:0)
自 Apache Kafka 2.0以来,Kafka Connect包含错误处理选项,其中包括将消息路由到死信队列的功能,这是构建数据管道的常用技术。
https://www.confluent.io/blog/kafka-connect-deep-dive-error-handling-dead-letter-queues/
如前所述,您使用的是connect-api-1.0.1.*.jar
版本1.0.1,因此可以解释为什么这些属性不起作用
除了运行较新版本的Kafka Connect外,您的替代方案还包括Nifi或Spark结构化流