我正在考虑将ArangoDB用于我的新项目,但我无法找到有关其可扩展性的大量信息。
具体来说,我正在寻找有关计数功能的一些信息。是否有一种可靠的方法(可能是一个公式)来估计计算集合中与简单布尔值匹配的文档数量需要多长时间?
集合中的所有文档都具有相同的字段,但具有不同的值。如何确定计算数亿份文档需要多长时间?
答案 0 :(得分:3)
只需创建一个集合users
,然后根据需要插入任意数量的随机文档。
FOR i IN 1..1100000
INSERT {
name: CONCAT("test", i),
year: 1970 + FLOOR(RAND() * 55),
gender: i % 2 == 0 ? 'male' : 'female'
} IN users
然后做计数:
FOR user IN users
FILTER user.gender == 'male'
COLLECT WITH COUNT INTO number
RETURN {
number: number
}
如果您在生产中使用此查询,请确保也添加索引。在我的机器上,它通过因子>减少了执行时间。 100x(0.043秒/1.1mio文件)。
使用EXPLAIN检查您的查询,以进一步估算执行的“代价”。
Query string:
FOR user IN users
FILTER user.gender == 'male'
COLLECT WITH COUNT INTO number
RETURN {
number: number
}
Execution plan:
Id NodeType Est. Comment
1 SingletonNode 1 * ROOT
8 IndexRangeNode 550001 - FOR user IN users /* hash index scan */
5 AggregateNode 1 - COLLECT WITH COUNT INTO number /* sorted*/
6 CalculationNode 1 - LET #4 = { "number" : number } /* simple expression */
7 ReturnNode 1 - RETURN #4
Indexes used:
Id Type Collection Unique Sparse Selectivity Est. Fields Ranges
8 hash users false false 0.00 % `gender` [ `gender` == "male" ]
Optimization rules applied:
Id RuleName
1 use-index-range
2 remove-filter-covered-by-index