Spark Kafka流式传输不会在工作节点上分配使用者负载

时间:2018-10-25 17:53:22

标签: java apache-spark apache-kafka spark-streaming

我创建了以下应用程序,该应用程序可在20秒的时间范围内打印出现的特定消息:

public class SparkMain {

public static void main(String[] args) {
    Map<String, Object> kafkaParams = new HashMap<>();

    kafkaParams.put(BOOTSTRAP_SERVERS_CONFIG, "localhost:9092, localhost:9093");
    kafkaParams.put(GROUP_ID_CONFIG, "spark-consumer-id");
    kafkaParams.put(KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
    kafkaParams.put(VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
    // events topic has 2 partitions
    Collection<String> topics = Arrays.asList("events");

    // local[*] Run Spark locally with as many worker threads as logical cores on your machine.
    SparkConf conf = new SparkConf().setMaster("local[*]").setAppName("SsvpSparkStreaming");

    // Create context with a 1 seconds batch interval
    JavaStreamingContext streamingContext =
            new JavaStreamingContext(conf, Durations.seconds(1));

    JavaInputDStream<ConsumerRecord<String, String>> stream =
            KafkaUtils.createDirectStream(
                    streamingContext,
                    LocationStrategies.PreferConsistent(),
                    ConsumerStrategies.<String, String>Subscribe(topics, kafkaParams)
            );

    // extract event name from record value
    stream.map(new Function<ConsumerRecord<String, String>, String>() {
        @Override
        public String call(ConsumerRecord<String, String> rec) throws Exception {
            return rec.value().substring(0, 5);
        }})
    // filter events
    .filter(new Function<String, Boolean>() {
        @Override
        public Boolean call(String eventName) throws Exception {
            return eventName.contains("msg");
        }})
    // count with 20sec window and 5 sec slide duration
    .countByValueAndWindow(Durations.seconds(20), Durations.seconds(5))
    .print();

    streamingContext.checkpoint("c:\\projects\\spark\\");
    streamingContext.start();
    try {
        streamingContext.awaitTermination();
    } catch (InterruptedException e) {
        // TODO Auto-generated catch block
        e.printStackTrace();
    }
}

在日志中运行main方法之后,我只能看到具有两个分区的单个使用者初始化:

  

2018-10-25 18:25:56,007信息   [org.apache.kafka.common.utils.LogContext $ KafkaLogger.info]-   <[Consumer clientId = consumer-1,groupId = spark-consumer-id]设置   新分配的分区[events-0,events-1]>

消费者的数量不应该等于火花工人的数量吗? 依据 https://spark.apache.org/docs/2.3.2/submitting-applications.html#master-urls

local [*]的意思是-在本地运行Spark,其工作线程与计算机上的逻辑核心一样多。

我有8核CPU,所以我希望应该创建8个使用者或至少2个使用者,并且每个使用者都获得“事件”主题的分区(2个分区)。

在我看来,我需要运行一个带有2个节点的完整独立的Spark主从集群,每个节点都将启动自己的使用者...

1 个答案:

答案 0 :(得分:0)

您不一定需要单独的工作人员或运行集群管理器。

听起来您正在寻找使用 2 个 Spark 执行器

How to set amount of Spark executors?