我有一个带有~120K文档数组的json文件。 我正在将json文件导入到mongo集合
mongoimport --db my-db --collection my_collection -j 4 file.json --jsonArray --batchSize 5 -v
随机停止,从未完成。我试图用-v运行但是看不到任何有用的日志。
答案 0 :(得分:2)
将mongo升级到当前最新版本3.2.11
后,问题解决了答案 1 :(得分:0)
您可以尝试将batchSize缩小为1 --batchSize 1
mongoimport --db my-db --collection my_collection -j 4 --file file.json --jsonArray --batchSize 1
如果你有那么多逻辑核心,你也可以尝试将-j
参数增加到8
。
答案 2 :(得分:0)
我还面临myfile的问题,这个问题是1.5GB。我是使用batchsize
和numInsertionWorkers
来解决它的。
mongoimport --db cam --collection cost --type json
--file /data/db/cost1/cost500000.json --jsonArray
--numInsertionWorkers 500 --batchSize 1;