我正在使用flink 1.4.2从Kafka读取数据,并使用ObjectNode
将其解析为JSONDeserializationSchema
。如果传入记录不是有效的JSON,则我的Flink作业将失败。我想跳过破记录,而不是使工作失败。
FlinkKafkaConsumer010<ObjectNode> kafkaConsumer =
new FlinkKafkaConsumer010<>(TOPIC, new JSONDeserializationSchema(), consumerProperties);
DataStream<ObjectNode> messageStream = env.addSource(kafkaConsumer);
messageStream.print();
如果Kafka中的数据不是有效的JSON,则会收到以下异常。
Job execution switched to status FAILING.
org.apache.flink.shaded.jackson2.com.fasterxml.jackson.core.JsonParseException: Unrecognized token 'This': was expecting ('true', 'false' or 'null')
at [Source: [B@4f522623; line: 1, column: 6]
Job execution switched to status FAILED.
Exception in thread "main" org.apache.flink.runtime.client.JobExecutionException: Job execution failed.
答案 0 :(得分:3)
最简单的解决方案是实现自己的DeserializationSchema
并包装JSONDeserializationSchema
。然后,您可以捕获异常并忽略它或执行自定义操作。
答案 1 :(得分:2)
如@twalthr所建议,我通过复制DeserializationSchema
并添加了异常处理来实现自己的JSONDeserializationSchema
。
import org.apache.flink.api.common.serialization.AbstractDeserializationSchema;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.ObjectMapper;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.node.ObjectNode;
import java.io.IOException;
public class CustomJSONDeserializationSchema extends AbstractDeserializationSchema<ObjectNode> {
private ObjectMapper mapper;
@Override
public ObjectNode deserialize(byte[] message) throws IOException {
if (mapper == null) {
mapper = new ObjectMapper();
}
ObjectNode objectNode;
try {
objectNode = mapper.readValue(message, ObjectNode.class);
} catch (Exception e) {
ObjectMapper errorMapper = new ObjectMapper();
ObjectNode errorObjectNode = errorMapper.createObjectNode();
errorObjectNode.put("jsonParseError", new String(message));
objectNode = errorObjectNode;
}
return objectNode;
}
@Override
public boolean isEndOfStream(ObjectNode nextElement) {
return false;
}
}
在我的流媒体工作中。
messageStream
.filter((event) -> {
if(event.has("jsonParseError")) {
LOG.warn("JsonParseException was handled: " + event.get("jsonParseError").asText());
return false;
}
return true;
}).print();
答案 2 :(得分:1)
Flink改进了FlinkKafkaConsumer的空记录处理
DeserializationSchema
遇到损坏的消息时,有两种可能的设计选择。它可以抛出IOException
导致管道重新启动,也可以返回null
,在那里Flink Kafka使用者将以静默方式跳过损坏的消息。
有关更多详细信息,您可以看到此link。