我的数据库中有数据需要进行peridocially更新。数据源返回该时间点可用的所有内容,因此将包含数据库中尚未存在的新数据。
当我遍历源数据时,如果可能的话,我不想做1000次单独写入。
是否有update_or_create
之类的东西,但批量生产?
一种想法是将update_or_create
与手动事务结合使用,但我不确定这是否只是将单个写入排队或是否将它们全部合并到一个SQL插入中?
或者类似地可以在循环工作中使用@commit_on_success()
的函数使用update_or_create
吗?
除了翻译数据并将其保存到模型之外,我没有对数据做任何事情。没有什么依赖于循环期间存在的模型
答案 0 :(得分:2)
由于 Django 添加了对 bulk_update 的支持,现在这在某种程度上是可能的,尽管您需要在每批 3 次数据库调用(获取、批量创建和批量更新)时进行。在这里为通用函数创建一个良好的接口有点困难,因为您希望该函数既支持高效查询又支持更新。这是我为批量 update_or_create 设计的一种方法,其中您有许多通用标识键(可能为空)和一个在批次中不同的标识键。
这是作为基础模型上的方法实现的,但可以独立于该模型使用。这还假设基本模型在名为 auto_now
的模型上具有 updated_on
时间戳;如果不是这种情况,则假定此情况的代码行已被注释以便于修改。
为了批量使用它,请在调用之前将更新分批进行。这也是一种绕过数据的方法,这些数据可以具有辅助标识符的少数值之一,而无需更改接口。
class BaseModel(models.Model):
updated_on = models.DateTimeField(auto_now=True)
@classmethod
def bulk_update_or_create(cls, common_keys, unique_key_name, unique_key_to_defaults):
"""
common_keys: {field_name: field_value}
unique_key_name: field_name
unique_key_to_defaults: {field_value: {field_name: field_value}}
ex. Event.bulk_update_or_create(
{"organization": organization}, "external_id", {1234: {"started": True}}
)
"""
with transaction.atomic():
filter_kwargs = dict(common_keys)
filter_kwargs[f"{unique_key_name}__in"] = unique_key_to_defaults.keys()
existing_objs = {
getattr(obj, unique_key_name): obj
for obj in cls.objects.filter(**filter_kwargs).select_for_update()
}
create_data = {
k: v for k, v in unique_key_to_defaults.items() if k not in existing_objs
}
for unique_key_value, obj in create_data.items():
obj[unique_key_name] = unique_key_value
obj.update(common_keys)
creates = [cls(**obj_data) for obj_data in create_data.values()]
if creates:
cls.objects.bulk_create(creates)
update_fields = {"updated_on"}
updates = []
for key, obj in existing_objs.items():
obj.update(unique_key_to_defaults[key], save=False)
update_fields.update(unique_key_to_defaults[key].keys())
updates.append(obj)
if existing_objs:
cls.objects.bulk_update(updates, update_fields)
return len(creates), len(updates)
def update(self, update_dict=None, save=True, **kwargs):
""" Helper method to update objects """
if not update_dict:
update_dict = kwargs
# This set should contain the name of the `auto_now` field of the model
update_fields = {"updated_on"}
for k, v in update_dict.items():
setattr(self, k, v)
update_fields.add(k)
if save:
self.save(update_fields=update_fields)
示例用法:
class Event(BaseModel):
organization = models.ForeignKey(Organization)
external_id = models.IntegerField()
started = models.BooleanField()
organization = Organization.objects.get(...)
updates_by_external_id = {
1234: {"started": True},
2345: {"started": True},
3456: {"started": False},
}
Event.bulk_update_or_create(
{"organization": organization}, "external_id", updates_by_external_id
)
答案 1 :(得分:1)
批量更新将是一个upsert命令,就像@imposeren所说,Postgres 9.5为您提供了这种能力。我认为Mysql 5.7也可以(见http://dev.mysql.com/doc/refman/5.7/en/insert-on-duplicate.html),具体取决于您的确切需求。这就是说使用db游标可能最容易。这没有什么不对,只有当ORM还不够时才有。
这些方面的东西应该有效。这是伪造的代码,所以不要只是剪切粘贴这个,但是概念适用于你。
class GroupByChunk(object):
def __init__(self, size):
self.count = 0
self.size = size
self.toggle = False
def __call__(self, *args, **kwargs):
if self.count >= self.size: # Allows for size 0
self.toggle = not self.toggle
self.count = 0
self.count += 1
return self.toggle
def batch_update(db_results, upsert_sql):
with transaction.atomic():
cursor = connection.cursor()
for chunk in itertools.groupby(db_results, GroupByChunk(size=1000)):
cursor.execute_many(upsert_sql, chunk)
这里的假设是:
db_results
是某种结果迭代器,无论是在列表还是字典中db_results
的结果可以直接送入原始sql exec语句with
块向下推一下