标签: ruby-on-rails json caching split
我有一个应用程序通过JSON从MongoDB中提取数据(介于100,000到10,000,000条记录之间),并将它们显示给用户。
由于JSON响应当前大约有35MB(会变得更大),我尝试通过
caches_page :pull_data
但是一旦重新生成缓存,它(自然地)会花费大量时间来再次提取和处理数据。有没有办法将这个巨大的JSON响应分成块来使这更容易,或者通常是一个更好的解决方案来处理这种情况?