如何迭代spark RDD并插入HBASE

时间:2017-07-15 14:13:03

标签: scala apache-spark hbase

我已在Google Cloud Spark Shell中生成了RDD。

现在我必须将它插入HBASE表中。我的RDD的格式是 -

RDD[(String, Map[String, String])]

First String是行键,Map [String,String]是列和它对应值的组合。

我必须使用以下命令使用Hbase.Put命令插入数据 -

val put = new Put(Bytes.toBytes("Value 1"));
put.addColumn(Bytes.toBytes("cf1"), Bytes.toBytes("greeting"), Bytes.toBytes("Greeting Heeloo World"));
table.put(put);

我面临的问题是,我不确定如何在RDD中进行迭代。

我的代码是用scala编写的,我在Google Cloud Spark Cluster上运行它。

任何帮助或指示都将不胜感激。

0 个答案:

没有答案