0

这是我的问题,我有一个 CSV 文件,其中包含 42,000 条 SKU 记录,除了前几条和最后大约 3000 条需要处理,其余记录并不重要,需要跳过。我正在使用 array_slice 一次处理 15 条记录,但是如果不以 15 条为一组处理它们,我想不出一种跳过文件中间大约 39,000 条记录的好方法。我知道我所有的 SKU不想处理包含文本 CNV 所以我尝试使用这个 if 语句跳过它们并将限制增加 100 以尝试快速通过所有不重要的 SKU。

        foreach($import_data as $row_id => $row) {
    if(preg_match('/CNV/',$new_post_meta['_sku'])) {
        $limit = ($limit +100); 
        continue;
    } else {
        $limit = 15; //Set limit back to 15
        //Process each SKU here

这样做的问题是,当它最终通过 39,000 个不重要的 SKU 时,限制设置为大约 1500,因此它会跳过需要处理的前 1500 个 SKU,因为新的偏移量设置为 ($limit + $offset) . 有没有人有任何建议可以有效地通过 39,000 个 SKU 而无需小块处理它们?

限制用于设置每个 array_slice 的长度,如下所示:

$import_data = array_slice($import_data, $offset , ($limit > 0 ? $limit : null), true);
4

1 回答 1

1

这可能听起来很傻,但你可以先过滤你的数组,然后只用重要的东西做任何你需要做的事情。

$import_data = array_filter($import_data, function($value){
    return !preg_match('/CNV/',$value['_sku']); // value here is an item of your array
});

foreach($import_data as $row_id => $row) {
    // process just the $import_data that matters
}
于 2013-08-09T19:01:09.290 回答