0

我遇到了内存限制错误,fetchAll所以我试图fetch改用,但我找不到办法。有什么建议吗?在哪里/如何使用while代替foreach

这是原始代码:

// We get all the data from the table
$Qselect = $pdo->prepare('SELECT * FROM '.$table_to_export.''); 
$Qselect->execute(array(''));
$results = $Qselect->fetchAll(PDO::FETCH_ASSOC); // Here is the problem
$countRmain = $Qselect->rowCount();

// We get the column names
$Qdescribe = $pdo->prepare('DESCRIBE '.$table_to_export.'');
$Qdescribe->execute();
$limit = $Qdescribe->rowCount()-1;      // Number of column in the table
$table_fields = $Qdescribe->fetchAll(PDO::FETCH_COLUMN); // No problem here

foreach($table_fields as $key => $fields){
    $outputCsv .= trim($fields).';';
}

// We remove the ; at the end
$outputCsv = rtrim($outputCsv, ';');

// Data
$outputCsv .= "\n";
if($countRmain > 0){
    foreach($results as $row){
            $column = 0 ;
        foreach ($row as $key => $val){         
            if (is_null($val)){
                $outputCsv .= 'NULL;';  // If the field id empty, we add NULL
            }
            else {
                $outputCsv .= $val.';'; // We add the value in the file
            }
            if ($column == $limit)
                $outputCsv .= "\n";
            $column ++;
        }
    }
}
    else
        exit('No data to export');

我试图将foreach循环包含在内,while($results = $Qselect->fetch()){但这需要很长时间(50000 行需要 10 分钟)

PS:如果我增加 PHP memory_limit 它适用于 fetchAll 但我不想要这个解决方案。

4

2 回答 2

0

试试这个。

1. comment line 4
2. Replace line 23:
    while($row = $Qselect->fetch(PDO::FETCH_ASSOC)){
3. Skip (or Replace) checks on line 22

想法很简单:你$result更早,但没有加载整个数组。您只需一步一步加载记录。即使对于 1M 行,这也不够慢,因为您将一段代码迭代循环替换为另一段相同的代码迭代。
如果您仍然遇到时间问题,请尝试重新组织\优化您的代码。

于 2012-09-09T14:35:12.607 回答
-2

我也遇到过这个问题。

增加以下变量,使您的页面执行不会停止:

max_input_time
memory_limit
max_execution_time

或者你可以使用

while($row = $Qselect->fetch(PDO::FETCH_ASSOC)){

代替 fatchAll

于 2012-09-09T13:37:31.027 回答