数据集繁重的熊猫

时间:2018-06-26 20:01:26

标签: python pandas apache-spark

目前,我有一个38 GB的CSV文件,其中包含酶和蛋白质的详细顺序。由于我的计算机内存限制为16 Gig,因此在将其加载到熊猫时遇到问题,是否有任何方法可以将如此繁重的数据处理到熊猫中?

我已经做过一些研究,发现Spark可以处理大数据集,对此的任何评论将不胜感激。

0 个答案:

没有答案