我已经成功编写了一个脚本,该脚本使用cURL下载CSV文件,然后将CSV解析为数组,如下所示:
$rows = array_map(function($a) {
return str_getcsv($a, $delimiter);
}, explode("\n", $result));
然后我使用$rows
迭代foreach
以将某些内容保存到数据库中。
该脚本运行正常,但是当使用较大的CSV文件(> 10.000行)时,脚本变得相当慢并且会产生更多错误。
我想将CSV文件剪切成碎片,因此不会将整个文件导入变量。我找到了以下solution,但仍然会立即处理整个文件。
是否有方法将CSV剪切成碎片并多次运行数据库功能?或者有更好的方法来处理像这样的大型CSV文件吗?
我对处理大文件比较陌生,所以请善待!