我的couchDB中有一个~10k条目(~30Mo,没有附件)数据库。
使用Pouchdb浏览器端,从沙发上复制时,需要一段时间才能完成......
让我感到惊讶的是我在沙发上收到的请求数量(数千!,我想和文件一样多) - 这是正常的吗?
有没有办法去"批量"那些要求并且通常会加速复制过程?
谢谢。
答案 0 :(得分:6)
我假设您正在使用PouchDB.replicate
功能
在这种情况下,请尝试修改batch_size
选项:
PouchDB.replicate('mydb', 'http://localhost:5984/mydb', {batch_size: large_val})
其中large_val
高于默认值100
。值越高,复制应该越快,但它将使用的内存越多,所以要小心。
修改:另请注意batches_limit
选项,默认为10
。这是可以随时并行运行的请求数,因此内存中的文档数等于batch_size * batches_limit
。