我有一个eventhub / stream analytics / documentdb链,流分析作业接受json对象并通过id将其保存在documentdb集合中。
如果集合中存在具有相同ID的文档,它应该被覆盖吗?但这种情况并没有发生。
假设我在集合中有这个对象:
{
"id" : "001",
"array":[
{
"key1" : "value1"
},
{
"key2" : "value2"
},
{
"key3" : "value3"
{
]
}
流作业持久保存的新文档是:
{
"id" : "001",
"array":[
{
"key4" : "value4"
},
{
"key5" : "value5"
}
]
}
我在集合中获得的新文档如下所示:
{
"id" : "001",
"array":[
{
"key4" : "value4"
},
{
"key5" : "value5"
},
{
"key3" : "value3"
{
]
}
数组不会被覆盖,只有正在保存的新文档大小的对象。如果oldarray.size> newarray.size一些旧数据仍将存在。
我想阻止这一点。我想覆盖所有文档并删除所有旧数据。 有没有办法做到这一点?