标签: python pandas apache-spark
目前,我有一个38 GB的CSV文件,其中包含酶和蛋白质的详细顺序。由于我的计算机内存限制为16 Gig,因此在将其加载到熊猫时遇到问题,是否有任何方法可以将如此繁重的数据处理到熊猫中?
我已经做过一些研究,发现Spark可以处理大数据集,对此的任何评论将不胜感激。