所以我使用python来做一些数据聚合和计算复杂的任务。结果是一个大约300mb的文件,大约有125,000行。
使用pymongo,我将此数据库推送到mongoDB并几乎每次都会出现此错误。
Exception in defer callback: RangeError: Out of memory
I20160817-15:14:16.079(-4)? at RangeError (native)
I20160817-15:14:16.079(-4)? at DocFetcher.fetch (packages/mongo/doc_fetcher.js:60:8)
I20160817-15:14:16.079(-4)? at packages/mongo/oplog_observe_driver.js:509:43
I20160817-15:14:16.079(-4)? at [object Object]._.extend.forEach (packages/id-map/id-map.js:48:1)
I20160817-15:14:16.080(-4)? at packages/mongo/oplog_observe_driver.js:507:35
I20160817-15:14:16.080(-4)? at packages/mongo/oplog_observe_driver.js:16:9
I20160817-15:14:16.080(-4)? at [object Object]._.extend.withValue (packages/meteor/dynamics_nodejs.js:56:1)
I20160817-15:14:16.080(-4)? at packages/meteor/timers.js:6:1
I20160817-15:14:16.080(-4)? at runWithEnvironment (packages/meteor/dynamics_nodejs.js:110:1)
每个客户一次只能订阅500个文档。
我的理论是,这是因为meteor正在读取每个条目作为更改,并试图将每个数据库更改为客户端,而不是大量的东西?
我能做些什么吗?如果这不在开发服务器上并且服务器有更多RAM,这个问题会消失吗。
非常感谢提前。