我正在使用spark 1.5.0和java 7。
输入来自kafka,其形式为具有type
字段的不同json对象。例如:
{'type': 'alpha', ...}
{'type': 'beta', ...}
...
我从此输入数据创建一个JavaPairDStream<String, Integer>
,对应于每种事件类型的计数。
我想将这些数据存储到redis中。我怎么能这样做呢?
答案 0 :(得分:2)
使用foreachRDD
和forEach
函数来实现此目的:
wordCounts.foreachRDD(
new Function<JavaPairRDD<String, Integer>, Void>() {
public Void call(JavaPairRDD<String, Integer> rdd) {
rdd.foreach(
new VoidFunction<Tuple2<String,Integer>>() {
public void call(Tuple2<String,Integer> wordCount) {
System.out.println(wordCount._1() + ":" + wordCount._2());
JedisPool pool = new JedisPool(new JedisPoolConfig(), "localhost");
Jedis jedis = pool.getResource();
jedis.select(0);
jedis.set(wordCount._1(), wordCount._2().toString());
}
}
);
return null;
}
}
);
答案 1 :(得分:0)
为每个RDD创建一个新的连接池效率非常低。我建议为每个分区创建一个连接:
wordCount.mapPartitions(p->{
Jedis jd = new Jedis(getJedisConfig());
while (p->hasNext()) {
Tuple2<String,Integer> data = p.next();
String word = data._1();
Integer cnt = data._2();
jd.set(word,count); // or any other format of save to Redis
}
}
)