使用Scala / Phantom-DSL异步读取大型Cassandra表

时间:2016-01-29 14:18:55

标签: scala phantom-dsl

我在阅读包含> 800k行的表时遇到问题。我需要从上到下读取行以处理它们。

我出于此目的使用Scala和Phantom。

以下是我的表格。

CREATE TABLE raw (
    id uuid PRIMARY KEY,
    b1 text,
    b2 timestamp,
    b3 text,
    b4 text,
    b5 text
) WITH bloom_filter_fp_chance = 0.01
    AND caching = '{"keys":"ALL", "rows_per_partition":"NONE"}'
    AND comment = ''
    AND compaction = {'class': 'org.apache.cassandra.db.compaction.SizeTieredCompactionStrategy'}
    AND compression = {'sstable_compression': 'org.apache.cassandra.io.compress.LZ4Compressor'}
    AND dclocal_read_repair_chance = 0.1
    AND default_time_to_live = 0
    AND gc_grace_seconds = 864000
    AND max_index_interval = 2048
    AND memtable_flush_period_in_ms = 0
    AND min_index_interval = 128
    AND read_repair_chance = 0.0
    AND speculative_retry = '99.0PERCENTILE';

到目前为止,我已尝试使用以下方式阅读该表:

def getAllRecords : Future[Seq[row]] = select.fetch

或更精彩的Play Enumerator并将其与Iteratee

结合使用
def getAllRecords : Enumerator = select.fetchEnumrator

这没有任何作用,似乎cassandra / driver /我的程序总是试图预先读取所有记录,我在这里缺少什么?

1 个答案:

答案 0 :(得分:1)

您是否尝试过在更大的读取测试中查看代码?

class IterateeBigReadPerformanceTest extends BigTest with ScalaFutures {

  it should "read the correct number of records found in the table" in {
    val counter: AtomicLong = new AtomicLong(0)
    val result = TestDatabase.primitivesJoda.select
      .fetchEnumerator run Iteratee.forEach {
      r => counter.incrementAndGet()
    }

    result.successful {
      query => {
        info(s"done, reading: ${counter.get}")
        counter.get() shouldEqual 2000000
      }
    }
  }
}

这不会预先读取您的记录。事实上,我们进行了测试,而不是运行超过一小时,以保证足够的GC暂停,没有GC开销,permgen /元空间压力保持在界限内等。

如果确实有任何改变,那只是错误的,但这仍然有用。