标签: python-3.x pandas concurrency bigdata
我正在处理一个包含10 millions个记录的文件,这些记录必须在8 millions records中循环,这些记录也将循环150000,我试图将150000划分为{ {1}}但仍然填充了30000的内存,尝试了多处理,但它仍然填满了我的记忆。我已经这样做了将近一个星期我仍在结束500GB进程{{1} } {multiprocessing` {3}}
10 millions
8 millions records
150000
30000
500GB