所以,我的问题是基于经验,所以我想知道那些试图加载数据集的人,那些加载的数据量是多少。我的用户有相对较大的管道,所以我不必担心调制解调器用户,但我确实关心处理时间。我猜我的限制是在300-1024k范围内的某个地方,但有没有人有办法或网站做了一些可以更确定的东西?
我遇到过这个资源。它是从2005年开始的,所以我认为它已经过时了,尽管一般的教训看起来很合理:
http://blogs.nitobi.com/dave/2005/09/29/javascript-benchmarking-iv-json-revisited/
我也遇到过这个:
http://www.jamesward.com/census/
还有什么值得检查吗?
答案 0 :(得分:3)
典型的JSON数据包可以(并且应该)由Web服务器使用gzip压缩到大约。初始尺寸的10%。所以你真的在看30-100k。如果这些响应可以缓存,那么问题就更少了。
传输的大小不应该是数据包是否“太多”的决定因素。相反,请查看浏览器处理此数据包需要多长时间(更新UI等)。
实际上解析JSON应该非常快,最多可达数兆字节的数据。将其转换为UI中的新功能将在很大程度上取决于您生成的HTML的复杂程度。