使用Spark

时间:2017-03-16 10:31:52

标签: scala hadoop apache-spark hbase rdd

我正在使用HBase Version 1.2.0-cdh5.8.2Spark version 1.6.0

我正在使用toHBaseTable() it.nerdammer.spark.hbase方法将RDD Spark HBASE保存在val experiencesDataset = sc.parallelize(Seq((001, null.asInstanceOf[String]), (001,"2016-10-25"))) experiencesDataset .toHBaseTable(experienceTableName).save() 中。

HBase

但我希望Spark使用Bulk Load <script>保存数据。

我无法理解如何使用批量加载选项。请帮助我。

0 个答案:

没有答案