import pandas as pd
chunksize = 10**9
df_csv = pd.read_csv('RESULT2.csv', error_bad_lines=False,nrows=chunksize)
print(df_csv)
这是我运行代码时得到的错误日志的代码
Killed
实际上,csv文件是32GB,这是最大的文件 我在Linux中使用python
也在运行我键入的代码之前
echo 1 > /proc/sys/vm/overcommit_memory
此命令
所以..有什么解决方案可以解决