0

所以,我的问题有点基于经验,所以我想知道那些试图加载数据集的人,要加载的数据量是多少。我的用户有相对较大的管道​​,所以我不必担心调制解调器用户,但我确实关心处理时间。我猜我的限制在 300-1024k 范围内,但有没有人有办法或网站做了一些更明确的事情?

我遇到过这个资源。它是从 2005 年开始的,所以我认为它已经过时了,尽管一般的教训似乎很合理:

http://blogs.nitobi.com/dave/2005/09/29/javascript-benchmarking-iv-json-revisited/

我也遇到了这个:

http://www.jamesward.com/census/

还有什么值得检查的吗?

4

1 回答 1

3

一个典型的 JSON 数据包可以(并且应该)由 Web 服务器使用 gzip 压缩到大约 其初始大小的 10%。所以你真的在看30-100k。如果这些响应可以被缓存,那么问题就更小了。

传输的大小不应成为数据包是否“太多”的决定因素。相反,请查看浏览器处理此数据包需要多长时间(更新 UI 等)。

实际上解析 JSON 应该非常快,最多可以处理数兆字节的数据。将其转化为 UI 中的新内容在很大程度上取决于您生成的 HTML 的复杂程度。

于 2009-04-06T21:03:21.823 回答