最近我一直在处理越来越大的数据集,而我目前正在使用pandas DataFrames处理这些数据集。我想更好地了解内存管理方面的情况。我听说它说熊猫不会像numpy那样释放内存,这使numpy更好地处理较大的数据集,但是我还没有找到有关幕后情况的解释。例如,如果我有以下代码片段:
df1 = pd.DataFrame('file1.csv')
df2 = pd.DataFrame('file2.csv')
for i in range(some_large_number):
df1 = df1.add(df2)
是add方法返回一个新的数据帧。这是否意味着在每次迭代中我都放弃了一块内存,直到df1超出范围才释放它?我特别想回答这个问题,如果有人对这方面的有用资源提出建议,请告诉我。
`