我使用Confluent HDFS Connector将数据从Kafka主题移动到HDFS日志文件。但是当我运行这些命令时:
./斌/连接-独立 etc / schema-registry / connect-avro-standalone.properties \ 等/卡夫卡-连接-HDFS / quickstart-hdfs.properties
我正在接受以下错误。我怎么解决这个问题。这是什么原因?
引起:org.apache.kafka.common.errors.SerializationException: 将ID为1的Avro消息反序列化时出错:引起: org.apache.kafka.common.errors.SerializationException:未知的魔法 字节! [2017-06-03 13:44:41,895]错误任务正在被杀死并将会 直到手动重启才能恢复 (org.apache.kafka.connect.runtime.WorkerTask:142)
答案 0 :(得分:1)
如果您尝试读取读取连接器的数据并将key.converter
和value.converter
设置为AvroConverter
,但输入主题的数据未经序列化,则会发生这种情况AvroSerializer
使用架构注册表。
您必须将转换器与输入数据相匹配。换句话说,使用可以反序列化输入数据的序列化程序。