加速ORM的数据库插入

时间:2009-09-09 16:44:58

标签: django postgresql django-models amazon-ec2

我有一个Django视图,它在一个循环中创建了500-5000个新的数据库INSERTS。问题是,它真的很慢!我在Postgres 8.3上每分钟大约有100个插页。我们曾经在较小的硬件(较小的EC2实例)上使用MySQL,并且从未遇到过这些类型的速度问题。

详细说明: 在Ubuntu Server 9.04上发布Postgres 8.3。 Server是一个“大型”Amazon EC2,在EBS(ext3)上有数据库--11GB / 20GB。

这是我的一些postgresql.conf - 请告诉我你是否需要更多

shared_buffers = 4000MB
effective_cache_size = 7128MB

我的python:

for k in kw:
        k = k.lower()
        p = ProfileKeyword(profile=self)
        logging.debug(k)
        p.keyword, created = Keyword.objects.get_or_create(keyword=k, defaults={'keyword':k,})
        if not created and ProfileKeyword.objects.filter(profile=self, keyword=p.keyword).count():
            #checking created is just a small optimization to save some database hits on new keywords
            pass #duplicate entry
        else:
            p.save()

顶部的一些输出:

top - 16:56:22 up 21 days, 20:55,  4 users,  load average: 0.99, 1.01, 0.94
Tasks:  68 total,   1 running,  67 sleeping,   0 stopped,   0 zombie
Cpu(s):  5.8%us,  0.2%sy,  0.0%ni, 90.5%id,  0.7%wa,  0.0%hi,  0.0%si,  2.8%st
Mem:  15736360k total, 12527788k used,  3208572k free,   332188k buffers
Swap:        0k total,        0k used,        0k free, 11322048k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                                                                                                                                            
14767 postgres  25   0 4164m 117m 114m S   22  0.8   2:52.00 postgres                                                                                                                                            
    1 root      20   0  4024  700  592 S    0  0.0   0:01.09 init                                                                                                                                                
    2 root      RT   0     0    0    0 S    0  0.0   0:11.76 migration/0                                                                                                                                         
    3 root      34  19     0    0    0 S    0  0.0   0:00.00 ksoftirqd/0                                                                                                                                         
    4 root      RT   0     0    0    0 S    0  0.0   0:00.00 watchdog/0                                                                                                                                          
    5 root      10  -5     0    0    0 S    0  0.0   0:00.08 events/0                                                                                                                                            
    6 root      11  -5     0    0    0 S    0  0.0   0:00.00 khelper                                                                                                                                             
    7 root      10  -5     0    0    0 S    0  0.0   0:00.00 kthread                                                                                                                                             
    9 root      10  -5     0    0    0 S    0  0.0   0:00.00 xenwatch                                                                                                                                            
   10 root      10  -5     0    0    0 S    0  0.0   0:00.00 xenbus                                                                                                                                              
   18 root      RT  -5     0    0    0 S    0  0.0   0:11.84 migration/1                                                                                                                                         
   19 root      34  19     0    0    0 S    0  0.0   0:00.01 ksoftirqd/1 

如果有任何其他细节会有帮助,请告诉我。

2 个答案:

答案 0 :(得分:6)

像这样的缓慢批量操作的一个常见原因是每个插入都发生在它自己的事务中。如果您可以在一次交易中完成所有这些操作,那么它可以更快。

答案 1 :(得分:3)

首先,ORM操作总是比纯SQL慢。我曾经在ORM代码中写了一个大型数据库的更新并将其设置为运行,但是在几小时后它只完成了一小部分就退出了。在SQL中重写之后,整个事情都在不到一分钟的时间内完成。

其次,请记住,此处的代码最多为数据集中的每一行执行四次单独的数据库操作 - get_or_create中的get,可能还有create,{{1在过滤器上,最后是count。这是很多数据库访问。

请记住,最多5000个对象并不大,您应该能够在开始时将整个数据集读入内存。然后,您可以执行单个save一次性获取所有现有的关键字对象,从而在关键字filter中保存大量查询,并且无需首先实例化重复的ProfileKeywords。