在下载kafka流时看不到消息,在flink 1.2中看不到打印消息

时间:2017-08-08 09:20:58

标签: streaming apache-flink

我的目标是使用kafka以json格式读取字符串,对字符串执行过滤,然后将消息拖出(仍以json字符串格式)。

出于测试目的,我的输入字符串消息如下所示:

{"a":1,"b":2}

我的实施代码是:

def main(args: Array[String]): Unit = {

// parse input arguments
val params = ParameterTool.fromArgs(args)

if (params.getNumberOfParameters < 4) {
  println("Missing parameters!\n"
    + "Usage: Kafka --input-topic <topic> --output-topic <topic> "
    + "--bootstrap.servers <kafka brokers> "
    + "--zookeeper.connect <zk quorum> --group.id <some id> [--prefix <prefix>]")
  return
}

val env = StreamExecutionEnvironment.getExecutionEnvironment
env.getConfig.disableSysoutLogging
env.getConfig.setRestartStrategy(RestartStrategies.fixedDelayRestart(4, 10000))
// create a checkpoint every 5 seconds
env.enableCheckpointing(5000)
// make parameters available in the web interface
env.getConfig.setGlobalJobParameters(params)

// create a Kafka streaming source consumer for Kafka 0.10.x
val kafkaConsumer = new FlinkKafkaConsumer010(
  params.getRequired("input-topic"),
  new JSONKeyValueDeserializationSchema(false),
  params.getProperties)

val messageStream = env.addSource(kafkaConsumer)

val filteredStream: DataStream[ObjectNode] = messageStream.filter(node => node.get("a").asText.equals("1")
                      && node.get("b").asText.equals("2"))

messageStream.print()
// Refer to: https://stackoverflow.com/documentation/apache-flink/9004/how-to-define-a-custom-deserialization-schema#t=201708080802319255857
filteredStream.addSink(new FlinkKafkaProducer010[ObjectNode](
  params.getRequired("output-topic"),
  new SerializationSchema[ObjectNode] {
    override def serialize(element: ObjectNode): Array[Byte] = element.toString.getBytes()
  }, params.getProperties
))

env.execute("Kafka 0.10 Example")
}

可以看出,我想将消息流打印到控制台并将过滤后的消息传递给kafka。但是,我看不到它们。

有趣的是,如果我将KafkaConsumer的架构从JSONKeyValueDeserializationSchema修改为SimpleStringSchema,我可以看到messageStream打印到控制台。代码如下所示:

 val kafkaConsumer = new FlinkKafkaConsumer010(
  params.getRequired("input-topic"),
  new SimpleStringSchema,
  params.getProperties)

val messageStream = env.addSource(kafkaConsumer)
messageStream.print()

这让我觉得如果我使用JSONKeyValueDeserializationSchema,我的输入消息实际上不被Kafka接受。但这似乎很奇怪,与在线文档(https://ci.apache.org/projects/flink/flink-docs-release-1.2/dev/connectors/kafka.html

完全不同

希望有人可以帮助我!

1 个答案:

答案 0 :(得分:1)

JSONKeyValueDeserializationSchema()期望每个kafka msg的消息密钥,我假设在生成JSON消息并通过kafka主题发送时没有提供密钥。

因此,要解决此问题,请尝试使用 JSONDeserializationSchema(),它只需要消息并根据收到的消息创建对象节点。