如何将JavaPairDStream写入Redis?

时间:2015-11-19 14:25:28

标签: java apache-spark redis spark-streaming

我正在使用spark 1.5.0和java 7。

输入来自kafka,其形式为具有type字段的不同json对象。例如:

{'type': 'alpha', ...}
{'type': 'beta', ...}
...

我从此输入数据创建一个JavaPairDStream<String, Integer>,对应于每种事件类型的计数。

我想将这些数据存储到redis中。我怎么能这样做呢?

2 个答案:

答案 0 :(得分:2)

使用foreachRDDforEach函数来实现此目的:

wordCounts.foreachRDD(
    new Function<JavaPairRDD<String, Integer>, Void>() {
        public Void call(JavaPairRDD<String, Integer> rdd) {
            rdd.foreach(
                new VoidFunction<Tuple2<String,Integer>>() {
                    public void call(Tuple2<String,Integer> wordCount) {
                        System.out.println(wordCount._1() + ":" + wordCount._2());
                        JedisPool pool = new JedisPool(new JedisPoolConfig(), "localhost");
                        Jedis jedis = pool.getResource();
                        jedis.select(0);
                        jedis.set(wordCount._1(), wordCount._2().toString());
                    }
                }
            );
            return null;
        }
    }
);

答案 1 :(得分:0)

为每个RDD创建一个新的连接池效率非常低。我建议为每个分区创建一个连接:

wordCount.mapPartitions(p->{
 Jedis jd = new Jedis(getJedisConfig());
 while (p->hasNext()) {
   Tuple2<String,Integer> data = p.next();
   String word = data._1();
   Integer cnt = data._2();
   jd.set(word,count); // or any other format of save to Redis
 }
}
)