我想将数据从大型csv文件迁移到sqlite3数据库。
我使用pandas在Python 3.5上的代码:
con = sqlite3.connect(DB_FILENAME)
df = pd.read_csv(MLS_FULLPATH)
df.to_sql(con=con, name="MLS", if_exists="replace", index=False)
是否可以打印执行to_sql方法的当前状态(进度条)?
我查看了有关tqdm的文章,但未找到如何执行此操作。
答案 0 :(得分:7)
Unfortuantely DataFrame.to_sql
没有提供chunk-by-chunk回调,这是tqdm更新其状态所需要的。但是,您可以按块处理数据帧块:
import sqlite3
import pandas as pd
from tqdm import tqdm
DB_FILENAME='/tmp/test.sqlite'
def chunker(seq, size):
# from http://stackoverflow.com/a/434328
return (seq[pos:pos + size] for pos in xrange(0, len(seq), size))
def insert_with_progress(df, dbfile):
con = sqlite3.connect(dbfile)
chunksize = int(len(df) / 10) # 10%
with tqdm(total=len(df)) as pbar:
for i, cdf in enumerate(chunker(df, chunksize)):
replace = "replace" if i == 0 else "append"
cdf.to_sql(con=con, name="MLS", if_exists=replace, index=False)
pbar.update(chunksize)
df = pd.DataFrame({'a': range(0,100000)})
insert_with_progress(df, DB_FILENAME)
注意我在这里生成DataFrame inline是为了拥有一个没有依赖的完整可行的例子。
结果令人惊叹:
答案 1 :(得分:0)
我想分享一个由miraculixx发布的解决方案的变体-我必须针对SQLAlchemy进行更改:
#these need to be customized - myDataFrame, myDBEngine, myDBTable
df=myDataFrame
def chunker(seq, size):
return (seq[pos:pos + size] for pos in range(0, len(seq), size))
def insert_with_progress(df):
con = myDBEngine.connect()
chunksize = int(len(df) / 10)
with tqdm(total=len(df)) as pbar:
for i, cdf in enumerate(chunker(df, chunksize)):
replace = "replace" if i == 0 else "append"
cdf.to_sql(name="myDBTable", con=conn, if_exists="append", index=False)
pbar.update(chunksize)
tqdm._instances.clear()
insert_with_progress(df)
答案 2 :(得分:0)
用户miraculixx在上面有一个很好的示例,谢谢您。但是,如果要对所有大小的文件使用它,则应添加以下内容:
chunksize = int(len(df) / 10)
if chunksize == 0:
df.to_sql(con=con, name="MLS", if_exists="replace", index=False)
else:
with tqdm(total=len(df)) as pbar:
...