我有一个使用psycopg2的postgres程序。 但是在DB中插入需要太长时间。
以下是使用cProfile进行性能分析的结果。
ncalls tottime percall cumtime percall filename:lineno(function)
475 0.022 0.000 855.605 1.801 /home/user/my_project/db.py:197(insert_event)
475 0.012 0.000 293.347 0.618 /home/user/my_project/db.py:123(insert_meta)
475 0.026 0.000 276.814 0.583 /home/user/my_project/db.py:102(insert_image)
2375 0.022 0.000 598.542 0.252 /usr/local/lib/python2.7/dist-packages/psycopg2/extras.py:286(execute)
1425 251.676 0.177 251.676 0.177 {method 'commit' of 'psycopg2._psycopg.connection' objects}
475 0.005 0.000 33.028 0.070 /home/user/my_project/db.py:83(is_event)
结论:
Insert full information about one event - 1.8 sec
Insert a picture (average) - 0.583 sec
Insert meta data about an event (average) - 0.618 sec
Confirmation of transaction (average) - 0.177 sec
Check availability of a record in DB - 0.070 sec
以下是与psycopg2一起使用的代码。
class PostgresDb(object):
def __init__(self, host, port, name, user, password, connect=True):
self.host = host
self.port = port
self.name = name
self.user = user
self.password = password
self.connection = None
self.cursor = None
if connect:
self.connect()
def __str__(self):
return ' '.join(map(str, [self.host,
self.port,
self.name,
self.user]))
def connect(self):
try:
self.connection = psycopg2.connect(host=self.host,
port=self.port,
user=self.user,
password=self.password,
database=self.name)
self.cursor = self.connection.cursor(cursor_factory=psycopg2.extras.NamedTupleCursor)
except psycopg2.DatabaseError as e:
print e
return e.pgerror
def execute(self, query, commit=True, repeat=True):
if self.connection is None:
self.connect()
try:
self.cursor.execute(query)
if commit:
self.connection.commit()
except psycopg2.Error as e:
print e
self.connection = None
return repeat and self.execute(query, commit=commit, repeat=False)
else:
return True
我做错了什么?
也许你有一些想法为什么需要这么长时间。
答案 0 :(得分:2)
根据您的分析结果,您似乎要提交数千个事务并为每个提交产生相关的开销(对here和here进行更深入的讨论)。
如果您的要求不一定规定了这种细化的事务边界,那么您可能拥有的一个选项是将多个插入一起批处理到一个事务中,然后对该批处理执行commit()
一次。对于你在这里发布的内容,这可能等同于这种愚蠢的近似:
db = PostgresDb(...your connection stuff here...)
#
# Other stuff happens, including determining your INSERT queries
#
for query in my_insert_queries[:-1]:
db.execute(query, commit=False)
db.execute(my_insert_queries[-1], commit=True)
我确定有一百万种方法可以将这个洋葱切成小块,具体取决于代码的其余部分 - 建议的核心是减少已提交事务的数量。
答案 1 :(得分:-1)
Psycopg2对我来说也很慢。 Python中CPU使用率低,Postgres CPU使用率低,查询耗时很长。我不知道这是我的数据库连接还是什么,但它无法容忍。
尝试此操作:当您想要进行大量查询时,请确保它们以分号结尾,然后将它们一起添加到字符串中。实际上并不是单独运行它们。最后将该巨大的字符串作为查询运行。如果您需要在事务中途从数据库中选择事物并在Python脚本中使用结果,这将无法工作,但这可能是一种罕见的情况。这极大地加快了我的交易速度。