Consistent hashing涉及以下概率情形:
在圆上选取N个随机点。每个点代表一个服务器,该服务器负责处理与其点和圆上的下一个服务器之间的距离成比例的数据量。然后,平均而言,每个服务器负责处理1 / N的数据。
但是,标准偏差将导致每个服务器接收不成比例的数据量(因为随机收集了点)。我们如何对这种不均匀性建模?
我的链接提供了以下答案:
每个服务器具有100个副本(“ vnode”),其标准偏差为 负载约为10%。铲斗尺寸的99%置信区间为 平均负载的0.76到1.28(即密钥总数/服务器数量)。这种可变性使容量规划变得棘手。
当然,这一切都很好,但是产生这些结果的数学是什么?