为什么psycopg2跟我这么慢?

时间:2015-01-23 18:16:27

标签: python postgresql profiling psycopg2 cprofile

我有一个使用psycopg2的postgres程序。 但是在DB中插入需要太长时间。

以下是使用cProfile进行性能分析的结果。

ncalls  tottime  percall  cumtime  percall filename:lineno(function)
475    0.022    0.000  855.605    1.801 /home/user/my_project/db.py:197(insert_event)
475    0.012    0.000  293.347    0.618 /home/user/my_project/db.py:123(insert_meta)
475    0.026    0.000  276.814    0.583 /home/user/my_project/db.py:102(insert_image)
2375 0.022 0.000 598.542 0.252 /usr/local/lib/python2.7/dist-packages/psycopg2/extras.py:286(execute)
1425  251.676    0.177  251.676    0.177 {method 'commit' of 'psycopg2._psycopg.connection' objects}
475    0.005    0.000   33.028    0.070 /home/user/my_project/db.py:83(is_event)

结论:

Insert full information about one event - 1.8 sec
Insert a picture (average) - 0.583 sec
Insert meta data about an event (average) - 0.618 sec
Confirmation of transaction (average) - 0.177 sec
Check availability of a record in DB - 0.070 sec

以下是与psycopg2一起使用的代码。

class PostgresDb(object):
    def __init__(self, host, port, name, user, password, connect=True):
        self.host = host
        self.port = port
        self.name = name
        self.user = user
        self.password = password
        self.connection = None
        self.cursor = None
        if connect:
            self.connect()

    def __str__(self):
        return ' '.join(map(str, [self.host,
                                  self.port,
                                  self.name,
                                  self.user]))

    def connect(self):
        try:
            self.connection = psycopg2.connect(host=self.host,
                                               port=self.port,
                                               user=self.user,
                                               password=self.password,
                                               database=self.name)
            self.cursor = self.connection.cursor(cursor_factory=psycopg2.extras.NamedTupleCursor)

        except psycopg2.DatabaseError as e:
            print e
            return e.pgerror

    def execute(self, query,  commit=True, repeat=True):
        if self.connection is None:
            self.connect()
        try:
            self.cursor.execute(query)
            if commit:
                self.connection.commit()
        except psycopg2.Error as e:
            print e
            self.connection = None
            return repeat and self.execute(query, commit=commit, repeat=False)
        else:
            return True

我做错了什么?

也许你有一些想法为什么需要这么长时间。

2 个答案:

答案 0 :(得分:2)

根据您的分析结果,您似乎要提交数千个事务并为每个提交产生相关的开销(对herehere进行更深入的讨论)。

如果您的要求不一定规定了这种细化的事务边界,那么您可能拥有的一个选项是将多个插入一起批处理到一个事务中,然后对该批处理执行commit()一次。对于你在这里发布的内容,这可能等同于这种愚蠢的近似:

db = PostgresDb(...your connection stuff here...)
#
# Other stuff happens, including determining your INSERT queries
#
for query in my_insert_queries[:-1]:
  db.execute(query, commit=False)
db.execute(my_insert_queries[-1], commit=True)

我确定有一百万种方法可以将这个洋葱切成小块,具体取决于代码的其余部分 - 建议的核心是减少已提交事务的数量。

答案 1 :(得分:-1)

Psycopg2对我来说也很慢。 Python中CPU使用率低,Postgres CPU使用率低,查询耗时很长。我不知道这是我的数据库连接还是什么,但它无法容忍。

尝试此操作:当您想要进行大量查询时,请确保它们以分号结尾,然后将它们一起添加到字符串中。实际上并不是单独运行它们。最后将该巨大的字符串作为查询运行。如果您需要在事务中途从数据库中选择事物并在Python脚本中使用结果,这将无法工作,但这可能是一种罕见的情况。这极大地加快了我的交易速度。