基于HBase行的一部分创建RDD

时间:2016-10-29 19:36:34

标签: hadoop apache-spark hbase

我尝试根据RDD表中的数据创建HBase

val targetRDD = sparkContext.newAPIHadoopRDD(hBaseConfig,
  classOf[TableInputFormat],
  classOf[ImmutableBytesWritable],
  classOf[Result])
  .map {
    case (key, row) => parse(key, row)
  }
为每个表行调用

parse,而不考虑对数据的进一步操作。

是否可以仅检索具有与某些条件匹配的特定键的行(即键在某个特定范围内)才能仅对它们进行操作?

1 个答案:

答案 0 :(得分:1)

HBase是一个键/值存储,其行按键排序,这意味着:

  • 按键范围
  • 按键或行序列检索单行效率很高
  • 根据某种情况检索随机行效率不高

所有检索操作分为两类:GetScan。这不难猜测他们做了什么,扫描将迭代所有行,除非你指定stopRow / startRow。你也可以在Scan上设置过滤器,但它仍然需要迭代所有行,过滤器可以降低网络压力,因为HBase可能必须返回更少的行。

您的示例中的

TableInputFormat使用其内部的扫描来访问Hbase:

  public void setConf(Configuration configuration) {
    this.conf = configuration;

    Scan scan = null;

    if (conf.get(SCAN) != null) {
      try {
        scan = TableMapReduceUtil.convertStringToScan(conf.get(SCAN));
      } catch (IOException e) {
        LOG.error("An error occurred.", e);
      }
    } else {
      try {
        scan = createScanFromConfiguration(conf);
      } catch (Exception e) {
          LOG.error(StringUtils.stringifyException(e));
      }
    }

    setScan(scan);
  }

createScanFromConfiguration内的TableInputFormat方法也可以为您提供有关如何设置过滤器和键范围的提示:

  public static Scan createScanFromConfiguration(Configuration conf) throws IOException {
    Scan scan = new Scan();

    if (conf.get(SCAN_ROW_START) != null) {
      scan.setStartRow(Bytes.toBytesBinary(conf.get(SCAN_ROW_START)));
    }

    if (conf.get(SCAN_ROW_STOP) != null) {
      scan.setStopRow(Bytes.toBytesBinary(conf.get(SCAN_ROW_STOP)));
    }

    if (conf.get(SCAN_COLUMNS) != null) {
      addColumns(scan, conf.get(SCAN_COLUMNS));
    }

    if (conf.get(SCAN_COLUMN_FAMILY) != null) {
      scan.addFamily(Bytes.toBytes(conf.get(SCAN_COLUMN_FAMILY)));
    }

    if (conf.get(SCAN_TIMESTAMP) != null) {
      scan.setTimeStamp(Long.parseLong(conf.get(SCAN_TIMESTAMP)));
    }

    if (conf.get(SCAN_TIMERANGE_START) != null && conf.get(SCAN_TIMERANGE_END) != null) {
      scan.setTimeRange(
          Long.parseLong(conf.get(SCAN_TIMERANGE_START)),
          Long.parseLong(conf.get(SCAN_TIMERANGE_END)));
    }

    if (conf.get(SCAN_MAXVERSIONS) != null) {
      scan.setMaxVersions(Integer.parseInt(conf.get(SCAN_MAXVERSIONS)));
    }

    if (conf.get(SCAN_CACHEDROWS) != null) {
      scan.setCaching(Integer.parseInt(conf.get(SCAN_CACHEDROWS)));
    }

    if (conf.get(SCAN_BATCHSIZE) != null) {
      scan.setBatch(Integer.parseInt(conf.get(SCAN_BATCHSIZE)));
    }

    // false by default, full table scans generate too much BC churn
    scan.setCacheBlocks((conf.getBoolean(SCAN_CACHEBLOCKS, false)));

    return scan;
  }

此stackoverflow answer提供了如何设置扫描hbaseConfig的示例,请注意,虽然您不必设置扫描,但您可以设置SCAN_ROW_START等特定属性createScanFromConfiguration我在上面提到过。