这是我的问题,我有一个 CSV 文件,其中包含 42,000 条 SKU 记录,除了前几条和最后大约 3000 条需要处理,其余记录并不重要,需要跳过。我正在使用 array_slice 一次处理 15 条记录,但是如果不以 15 条为一组处理它们,我想不出一种跳过文件中间大约 39,000 条记录的好方法。我知道我所有的 SKU不想处理包含文本 CNV 所以我尝试使用这个 if 语句跳过它们并将限制增加 100 以尝试快速通过所有不重要的 SKU。
foreach($import_data as $row_id => $row) {
if(preg_match('/CNV/',$new_post_meta['_sku'])) {
$limit = ($limit +100);
continue;
} else {
$limit = 15; //Set limit back to 15
//Process each SKU here
这样做的问题是,当它最终通过 39,000 个不重要的 SKU 时,限制设置为大约 1500,因此它会跳过需要处理的前 1500 个 SKU,因为新的偏移量设置为 ($limit + $offset) . 有没有人有任何建议可以有效地通过 39,000 个 SKU 而无需小块处理它们?
限制用于设置每个 array_slice 的长度,如下所示:
$import_data = array_slice($import_data, $offset , ($limit > 0 ? $limit : null), true);