卡夫卡接收器连接器中无效JSON的错误处理

时间:2020-02-11 12:48:21

标签: mongodb error-handling apache-kafka apache-kafka-connect

我有一个用于mongodb的接收器连接器,该连接器从某个主题获取json并将其放入mongoDB集合中。但是,当我从生产者向该主题发送无效的JSON(例如,带有无效的特殊字符“)=> {"id":1,"name":"\"}时,连接器停止。我尝试使用errors.tolerance = all,但是发生了同样的事情应该发生的是,连接器应该跳过并记录无效的JSON,并保持连接器运行。我的分布式模式连接器如下:

{
  "name": "sink-mongonew_test1",  
  "config": {
    "connector.class": "com.mongodb.kafka.connect.MongoSinkConnector",
    "topics": "error7",
    "connection.uri": "mongodb://****:27017", 
    "database": "abcd", 
    "collection": "abc",
    "type.name": "kafka-connect",
    "key.ignore": "true",

    "document.id.strategy": "com.mongodb.kafka.connect.sink.processor.id.strategy.PartialValueStrategy",
    "value.projection.list": "id",
    "value.projection.type": "whitelist",
    "writemodel.strategy": "com.mongodb.kafka.connect.sink.writemodel.strategy.UpdateOneTimestampsStrategy",

    "delete.on.null.values": "false",

    "key.converter": "org.apache.kafka.connect.json.JsonConverter",
    "value.converter": "org.apache.kafka.connect.json.JsonConverter",
    "key.converter.schemas.enable": "false",
    "value.converter.schemas.enable": "false",

    "errors.tolerance": "all",
    "errors.log.enable": "true",
    "errors.log.include.messages": "true",
    "errors.deadletterqueue.topic.name": "crm_data_deadletterqueue",
    "errors.deadletterqueue.topic.replication.factor": "1",
    "errors.deadletterqueue.context.headers.enable": "true"
  }
}

1 个答案:

答案 0 :(得分:0)

Apache Kafka 2.0以来,Kafka Connect包含错误处理选项,其中包括将消息路由到死信队列的功能,这是构建数据管道的常用技术。

https://www.confluent.io/blog/kafka-connect-deep-dive-error-handling-dead-letter-queues/

如前所述,您使用的是connect-api-1.0.1.*.jar版本1.0.1,因此可以解释为什么这些属性不起作用

除了运行较新版本的Kafka Connect外,您的替代方案还包括Nifi或Spark结构化流