我正在观看 Jeff Dean 谈论延迟和缩放的视频 - https://www.youtube.com/watch?v=nK6daeTZGA8#t=515
在 00:07:34 标记处,他给出了一个延迟示例,如下所示 -
假设您有一堆服务器。他们对请求的平均响应时间为 10 毫秒。但有 1% 的时间他们需要 1 秒或更长时间才能做出响应。因此,如果您触摸其中一台服务器,则 1% 的请求需要 1 秒或更长时间。触摸 100 台这样的服务器,63% 的请求需要 1 秒或更长时间。
他是如何得出这个 63% 的数字的?这背后的逻辑/数学是什么?