我正在从同一个表中加载数据,但它非常大。 1百万加上记录。我认为创建250,000的块会更好,所以我得到了4个DataFrame。
frames = []
for chunk in chunks(some_very_large_list, 250000):
frames.append(pd.DataFrame(data=chunk, columns=['A', 'B', 'C']))
当我致电pd.concat(frames)
时,将所有内容合并在一起需要花费很长时间。加快这一过程的最佳方法是什么?
答案 0 :(得分:0)
您可以尝试的两件事情,可能会有所帮助,也可能没有帮助:
答案 1 :(得分:0)
对于我的情况,似乎与你的情况类似,我发现的最好的方法是使用追加功能:
dataframe = pd.DataFrame()
dataframe.append(frames,ignore_index = True)