我已经成功编写了一个脚本,该脚本使用 cURL 下载 CSV 文件,然后将 CSV 解析为数组,如下所示:
$rows = array_map(function($a) {
return str_getcsv($a, $delimiter);
}, explode("\n", $result));
然后我迭代$rows
使用foreach
将某些内容保存到数据库中。
该脚本运行良好,但是当使用较大的 CSV 文件(>10.000 行)时,该脚本变得相当慢并给出更多错误。
我想将 CSV 文件切成小块,因此不会将整个文件导入到变量中。我找到了以下解决方案,但它仍然一次处理整个文件。
有没有办法将 CSV 切成小块并多次运行数据库功能?或者有没有更好的方法来处理这样的大型 CSV 文件?
我对处理大文件比较陌生,所以请善待!