0

如果我在具有t个并行线程的 nginx 服务器上查询静态200kb HTML 文件,它以m ms 为单位,我达到大约r req/sec 的吞吐量。(我平均使用了大约 2000 个请求)

t:10 米:13 r:440

t:20 m:20 r:475

t:50 米:67 r:547

t:80 m:98 r:517

我正在开发一个反向代理,它会为每个请求增加一些时间,如果我对其进行相同的测试,而不进行修改或缓存(尊重 rfc2616),我会得到这些结果(直到现在还没有做太多的性能调整)。

t:10 米:42 r:130

t:20 米:80 r:121

t:50 米:133 r:194

长:80 米:182 右:258

如果代理有文件的缓存版本,我会得到这个结果

t:10 米:74 r:118

t:20 米:116 r:150

t:50 米:236 r:155

t:80 米:402 r:142

现在我的问题是:这些是好的价值观吗?我找不到太多可以比较的值。我只想知道:当请求 10 个并行客户端时,是否可以在每个请求上添加 30-50 毫秒?可以吗,吞吐量下降这么多?

squid、varnish 或 apache 流量服务器添加多少时间?有人有可比的价值观吗?

4

1 回答 1

0

好的,这些值非常糟糕......现在我大多数都在 20 毫秒以下。原因是:我使用 clouchnode 客户端作为 couchbase,现在我使用 couchbase 的 memcache 接口。

于 2013-06-13T20:06:26.927 回答