Apache-Kafka-Connect,Confluent-HDFS-Connector,Unknown-magic-byte

时间:2017-06-03 11:08:03

标签: java avro apache-kafka-connect confluent confluent-schema-registry

我使用Confluent HDFS Connector将数据从Kafka主题移动到HDFS日志文件。但是当我运行这些命令时:

  

./斌/连接-独立   etc / schema-registry / connect-avro-standalone.properties \   等/卡夫卡-连接-HDFS / quickstart-hdfs.properties

我正在接受以下错误。我怎么解决这个问题。这是什么原因?

  

引起:org.apache.kafka.common.errors.SerializationException:   将ID为1的Avro消息反序列化时出错:引起:   org.apache.kafka.common.errors.SerializationException:未知的魔法   字节! [2017-06-03 13:44:41,895]错误任务正在被杀死并将会   直到手动重启才能恢复   (org.apache.kafka.connect.runtime.WorkerTask:142)

1 个答案:

答案 0 :(得分:1)

如果您尝试读取读取连接器的数据并将key.convertervalue.converter设置为AvroConverter,但输入主题的数据未经序列化,则会发生这种情况AvroSerializer使用架构注册表。

您必须将转换器与输入数据相匹配。换句话说,使用可以反序列化输入数据的序列化程序。