我在磁盘上有一个巨大的csv文件(14gb),我需要"融化" (使用pd.melt) - 我可以使用pd.read_csv()导入文件而不会出现问题,但是当我应用融合函数时,我最大化了我的32gb内存并遇到了#34;内存错误"限制。有谁能提出一些解决方案?原始文件是另一个脚本的输出,因此我无法通过仅导入所选列或删除行来减少它。有几百列和超过1000万行..我试过这样的东西(在很简短的版本中):
{{1}}
显然这没有用,因为columns.values属性不适用于块,因为它不是数据帧。任何关于如何重新编码以使其工作并避免内存问题的建议都非常感谢!