标签: python pandas jupyter-notebook data-science
我有一个10GB的根文件,其中包含30列和6000万行。 尝试一次在pandas数据框中导入所有数据时出现错误。我通过分批读取,执行一些预选剪切和管理数据类型来对其进行管理。
毕竟,我完成了2GB数据帧。 但是,尽管如此,当我尝试拟合数据以进行逻辑回归或随机森林分析时,我的内核不断死去/重新启动。 有解决办法吗?