Spring Data Mongo:如何保存批处理忽略所有重复的键错误?

时间:2016-09-15 10:11:19

标签: java spring mongodb spring-data spring-data-mongodb

我有以下域对象:

@Document
class Foo {
    @Id
    private final String bar;
    private final String baz;
    // getters, setters, constructor omitted
}

插入如下:

Collection<Foo> foos = ...;
mongoTemplate.insert(foos, Foo.class);

如何在一次调用中保存所有结果而忽略所有重复的键异常?

2 个答案:

答案 0 :(得分:3)

我搜索了spring数据mongo文档和其他资源,但没有找到预期的答案。

似乎Mongo会在满足唯一键约束之前插入批处理文档,由DB来决定。

因此,例如,如果您需要插入100个文档,并且DB中已经存在文档50,那么将插入前49个,而不会插入第50个。

我提出的是下一个解决方案:

Set<String> ids = foos.stream().map(Foo::getBar).collect(toSet()); // collect all ids from docs that will be inserted
WriteResult writeResult = mongoTemplate.remove(new Query(Criteria.where("_id").in(ids)), Foo.class); // perform remove with collected ids
mongoTemplate.insert(foos, Foo.class); // now can safely insert batch

因此DB将被调用两次。 此外,当bar为索引字段时,删除操作将很快。

答案 1 :(得分:2)

在我的情况下,不像@ marknorkin的答案那样允许修改/覆盖现有文档。相反,我只想插入 new 文档。我使用MongoOperations来提出这个问题,它可以在Spring中注入。下面的代码在Kotlin中。

 try {
        // we do not want to overwrite existing documents, especially not behind the event horizon
        // we hence use unordered inserts and supresss the duplicate key exceptions
        // as described in: https://docs.mongodb.com/v3.2/reference/method/db.collection.insertMany/#unordered-inserts
        mongoOps.bulkOps(BulkOperations.BulkMode.UNORDERED, EventContainer::class.java)
            .insert(filtered)
            .execute()
      } catch (ex: BulkOperationException) {
        if (!isDuplicateKeyException(ex)) {
          throw ex
        }
      }

有了这个小帮手

private fun isDuplicateKeyException(ex: BulkOperationException): Boolean {
    val duplicateKeyErrorCode = 11000
    return ex.errors.all { it.code == duplicateKeyErrorCode }
}