首先:没有问题,伪代码:
db = mysqldb.connect()
cursor = db.cursor()
large = cursor.execute(SELECT * FROM VERYLARGETABLE)
for result in large.fetchall():
file.write(result)
if timetoUpdateStatus: cursor.execute(UPDATE STATUS)
问题:当获得900万个结果时,“large = cursor.execute(SELECT * FROM VERYLARGETABLE)”永远不会完成...我想出了一个边界,在2个位置,在4列,其中mysql服务器在30之后完成了查询秒,但python进程持续运行了几个小时...这可能是Python MySQLDB库中的一个错误..
SO SECOND TRY:db.query函数与db.use_results()和fetch_row():
db = mysqldb.connect()
cursor = db.cursor()
db.query(SELECT * FROM VERYLARGETABLE)
large = large.use_result()
while true:
for row in large.fetch_row(100000):
file.write(row)
if timetoUpdateStatus: cursor.execute(UPDATE STATUS) <-- ERROR (2014, "Commands out of sync; you can't run this command now")
所以THIRD TRY正在使用2个MySQL连接...这不起作用,当我打开第二个连接时,第一个连接消失....
任何建议??
答案 0 :(得分:6)
尝试使用MySQL SSCursor。它将结果集保存在服务器(MySQL数据结构)中,而不是将结果集传递给客户端(Python数据结构),这是默认光标所做的。使用SSCursor将避免由于默认光标试图构建Python数据结构而导致的长初始延迟 - 并为巨大的结果集分配内存。因此,SSCursor也应该需要更少的内存。
import MySQLdb
import MySQLdb.cursors
import config
cons = [MySQLdb.connect(
host=config.HOST, user=config.USER,
passwd=config.PASS, db=config.MYDB,
cursorclass=MySQLdb.cursors.SSCursor) for i in range(2)]
select_cur, update_cur = [con.cursor() for con in cons]
select_cur.execute(SELECT * FROM VERYLARGETABLE)
for i, row in enumerate(select_cur):
print(row)
if i % 100000 == 0 or timetoUpdateStatus:
update_cur.execute(UPDATE STATUS)
答案 1 :(得分:3)
尝试将“select * from db”查询拆分为较小的块
index=0
while True:
cursor.execute('select * from verylargetable LIMIT %s,%s', (index, index+10000))
records = cursor.fetchall()
if len(records)==0:
break
file.write(records)
index+=10000
file.close()
答案 2 :(得分:2)
在大选中使用LIMIT
语句:
limit = 0
step = 10000
query = "SELECT * FROM VERYLARGETABLE LIMIT %d, %d"
db = mysqldb.connect()
cursor = db.cursor()
while true:
cursor.execute(query, (step, limit))
for row in cursor.fetch_all():
file.write(row)
if timetoUpdateStatus:
cursor.execute(update_query)
limit += step
代码未经过测试,但您应该明白这一点。