我正在观看Jeff Dean谈论延迟和缩放的视频 - https://www.youtube.com/watch?v=nK6daeTZGA8#t=515
在00:07:34标记处,他给出了一个像这样的延迟的例子 -
让我们说你有一堆服务器。他们对请求的平均响应时间是10毫秒。但有1%的时间他们需要1秒或更长时间才能做出回应。因此,如果您触摸其中一台服务器,则1%的请求需要1秒或更长时间。触摸其中的100台服务器,63%的请求需要1秒或更长时间。
他是如何达到63%的数字?那背后的逻辑/数学是什么?