我在MongoDB中很新,我们有以下要求。
目前我们正在使用MySQL进行所有未进行缩放的数据分析,因此我们计划使用MongoDB。
最初的表现看起来非常令人印象深刻。我们计划暂时维护MySQL和MongoDB中的数据。只有分析所需的数据才会以重新定时的间隔同步到Mongodb。
我们正在使用Mongoimport进行一次同步。每次有新的数据更新时,我们都需要将它们同步到MongoDB。
mongoimport的问题在于它会覆盖现有数据。
Following is the sample data -
{
"_id" : ObjectId("566be4bf5506903ca147a985"),
"uid" : "1",
"attributes" : [ {
"Age" : "26",
"City" : "Bangalore",
"State" : "Karnataka",
"Gender" : "female"
} ],
"sent" : [ {
"mid" : "7", "entered_date" : "150117"
}, {
"mid" : "8", "entered_date" : "150201"
} ],
"opened" : [ {
"mid" : "15", "viewed_date" : "150222", "viewed_time" : "03000"
} ]
}
现在,如果我们得到1,00,000个需要更新其属性的uid。实现同样目标的最佳方法是什么?我们尝试过MongoDB提供的Bulk.find.update()方法。这是正确的方法还是有更好的方法来更新特定字段,例如批量中的Age in Attributes等。
提前致谢