在读取第一批数据后停止火花流动

时间:2014-12-02 13:49:59

标签: apache-kafka spark-skinning

我正在使用spark streaming来消费kafka消息。我想从kafka获取一些消息作为样本,而不是阅读所有消息。所以我想阅读一批消息,将它们返回给调用者并停止火花流。目前我在awaitTermination方法的spark流上下文方法中传递batchInterval时间。我现在不知道如何从火花流中将处理过的数据返回给调用者。这是我目前正在使用的代码

def getsample(params: scala.collection.immutable.Map[String, String]): Unit = {
    if (params.contains("zookeeperQourum"))
      zkQuorum = params.get("zookeeperQourum").get
    if (params.contains("userGroup"))
      group = params.get("userGroup").get
    if (params.contains("topics"))
      topics = params.get("topics").get
    if (params.contains("numberOfThreads"))
      numThreads = params.get("numberOfThreads").get
    if (params.contains("sink"))
      sink = params.get("sink").get
    if (params.contains("batchInterval"))
      interval = params.get("batchInterval").get.toInt
    val sparkConf = new SparkConf().setAppName("KafkaConsumer").setMaster("spark://cloud2-server:7077")
    val ssc = new StreamingContext(sparkConf, Seconds(interval))
    val topicMap = topics.split(",").map((_, numThreads.toInt)).toMap
    var consumerConfig = scala.collection.immutable.Map.empty[String, String]
    consumerConfig += ("auto.offset.reset" -> "smallest")
    consumerConfig += ("zookeeper.connect" -> zkQuorum)
    consumerConfig += ("group.id" -> group)
    var data = KafkaUtils.createStream[Array[Byte], Array[Byte], DefaultDecoder, DefaultDecoder](ssc, consumerConfig, topicMap, StorageLevel.MEMORY_ONLY).map(_._2)
    val streams = data.window(Seconds(interval), Seconds(interval)).map(x => new String(x))
    streams.foreach(rdd => rdd.foreachPartition(itr => {
      while (itr.hasNext && size >= 0) {
        var msg=itr.next
        println(msg)
        sample.append(msg)
        sample.append("\n")
        size -= 1
      }
    }))
    ssc.start()
    ssc.awaitTermination(5000)
    ssc.stop(true)
  }

因此,不要在名为" sample"的字符串构建器中保存消息。我想回到来电者那里。

2 个答案:

答案 0 :(得分:5)

您可以实现StreamingListener然后在其中,onBatchCompleted可以调用ssc.stop()

private class MyJobListener(ssc: StreamingContext) extends StreamingListener {

  override def onBatchCompleted(batchCompleted: StreamingListenerBatchCompleted) = synchronized {

    ssc.stop(true)

  }

}

这是将SparkStreaming附加到JobListener的方法:

val listen = new MyJobListener(ssc)
ssc.addStreamingListener(listen)

ssc.start()
ssc.awaitTermination()

答案 1 :(得分:0)

我们可以使用以下代码获取示例消息

var sampleMessages=streams.repartition(1).mapPartitions(x=>x.take(10))

如果我们想在第一批之后停止,那么我们应该实现我们自己的StreamingListener接口,并且应该在onBatchCompleted方法中停止流式传输。