将键值数据库与Spark集成

时间:2016-12-09 16:28:50

标签: hadoop apache-spark rocksdb

我无法理解Spark如何与存储交互。

我想创建一个Spark集群,从RocksDB数据库(或任何其他键值存储)中获取数据。但是,此时,我能做的最好的事情就是将整个数据集从数据库中提取到每个集群节点的内存中(例如,放入一个映射中)并从该对象构建一个RDD。

我只需要获取必要的数据(如Spark与HDFS一样)?我已经阅读了有关Hadoop输入格式和记录阅读器的内容,但我还没有完全理解我应该实现的内容。

我知道这是一个广泛的问题,但我真的很感激帮助我开始。提前谢谢。

1 个答案:

答案 0 :(得分:6)

这是一种可能的解决方案。我假设您有要访问的键值存储(在您的情况下为RocksDB)的客户端库 KeyValuePair表示一个bean类,表示来自键值存储的一个键值对。

课程

/*Lazy iterator to read from KeyValue store*/
class KeyValueIterator implements Iterator<KeyValuePair> {
    public KeyValueIterator() {
        //TODO initialize your custom reader using java client library
    }
    @Override
    public boolean hasNext() {
        //TODO
    }

    @Override
    public KeyValuePair next() {
        //TODO
    }
}
class KeyValueReader implements FlatMapFunction<KeyValuePair, KeyValuePair>() {
    @Override
    public Iterator<KeyValuePair> call(KeyValuePair keyValuePair) throws Exception {
        //ignore empty 'keyValuePair' object
        return new KeyValueIterator();
    }
}

创建KeyValue RDD

/*list with a dummy KeyValuePair instance*/
ArrayList<KeyValuePair> keyValuePairs = new ArrayList<>();
keyValuePairs.add(new KeyValuePair());
JavaRDD<KeyValuePair> keyValuePairRDD = javaSparkContext.parallelize(keyValuePairs);
/*Read one key-value pair at a time lazily*/    
keyValuePairRDD = keyValuePairRDD.flatMap(new KeyValueReader());

注意:

上述解决方案默认创建一个带有两个分区的RDD(其中一个将为空)。在对keyValuePairRDD应用任何转换之前增加分区,以跨执行程序分发处理。 增加分区的不同方法:

keyValuePairRDD.repartition(partitionCounts)
//OR
keyValuePairRDD.partitionBy(...)