1

我正在使用我在网上找到的修改后的 php mysql 备份脚本来备份我的 sql 数据库,但我一直遇到 mysql_fetch_row 的问题,我想知道是否有办法修复它。

我用内存错误评论了这一行。

<?php
ini_set('memory_limit','4000M');
$ho = "host";
$us = "username";
$pa = "password";
$da='dbname';

backup_tables($ho,$us,$pa,$da);


/* backup the db OR just a table */
function backup_tables($host,$user,$pass,$name,$tables = '*')
{
    $link = mysql_connect($host,$user,$pass);
    mysql_select_db($name,$link);

    //get all of the tables
    if($tables == '*')
    {
        $tables = array();
        $result = mysql_query('SHOW TABLES');
        while($row = mysql_fetch_row($result))
        {
            $tables[] = $row[0];
        }
    }
    else
    {
        $tables = is_array($tables) ? $tables : explode(',',$tables);
    }

    $filename = 'db-backup-'.time().'-'.(md5(implode(',',$tables))).'.sql';
    $handle = fopen($filename,'w');

    //cycle through
    foreach($tables as $table)
    {
        $result = mysql_query('SELECT * FROM '.$table);
        $num_fields = mysql_num_fields($result);

        fwrite( $handle, 'DROP TABLE '.$table.';' );

        $row2 = mysql_fetch_row(mysql_query('SHOW CREATE TABLE '.$table));
        fwrite( $handle, "\n\n".$row2[1].";\n\n" );

        for ($i = 0; $i < $num_fields; $i++)
        {
            //this is the line with the error******
            while($row = mysql_fetch_row($result))
            {
                fwrite( $handle, 'INSERT INTO '.$table.' VALUES(' );
                for($j=0; $j<$num_fields; $j++)
                {
                    $row[$j] = addslashes($row[$j]);
                    $row[$j] = ereg_replace("\n","\\n",$row[$j]);
                    if (isset($row[$j])) { fwrite( $handle, '"'.$row[$j].'"' ) ; } 
                    else { fwrite( $handle, '""' ); }

                    if ($j<($num_fields-1)) { fwrite( $handle, ',' ); }
            }
            fwrite( $handle, ");\n" );
       }
     }
    fwrite( $handle, "\n\n\n" );
}

    //save file

    fclose($handle);
}
?>

这是错误:

Fatal error: Out of memory (allocated 1338507264) (tried to allocate 35 bytes) in /home/user/backupSQL/backupmodified.php on line 47

我知道有更好的方法来进行备份,但这满足了我对系统的所有要求,而且我只遇到了我可笑的庞大数据库的内存问题。

谢谢您的帮助。

-PHP/MySQL 新手

附言。这是我使用的链接http://www.htmlcenter.com/blog/back-up-your-mysql-database-with-php/

编辑:mysqldump 在备份这些大型数据库时工作正常,但大型数据库是修改最多的数据库,当有人需要处理它们时,我不能在转储时锁定我的 dbs。这就是我使用这个脚本的原因。

4

3 回答 3

2

正如其他海报所提到的,您最好使用现成的工具,但现在让我们谈谈您的脚本。

如果你有一个大得离谱的表,那么就没有办法分配那么多内存。您必须将数据集拆分为多个块。使用如下查询:

$result = mysql_query('SELECT * FROM '.$table.' LIMIT '.$start.', 10000');

然后只需迭代$start或执行while循环以检查您是否仍然获得结果。像这样,您将获得 10000 条记录的数据块,因此它肯定适合您的记忆。

但是,仍然存在一个问题——一致性。如果您仍在获取块时某些行发生了变化怎么办?好吧,您可以将SELECT循环包装在事务中并在获取数据时锁定表。我知道您正在尝试避免锁定,但是锁定表比锁定整个数据库要好。这仍然不能确保表间的一致性,但这是在您设置的条件下可以做到的最好的。

编辑:这是循环的代码。我实施了while解决方案。有一个等效for循环,但两者之间的比较超出了本文的范围。

foreach($tables as $table)
{
    fwrite( $handle, 'DROP TABLE '.$table.';' );

    $row2 = mysql_fetch_row(mysql_query('SHOW CREATE TABLE '.$table));
    fwrite( $handle, "\n\n".$row2[1].";\n\n" );

    $start = 0;
    do {
        $result = mysql_query( 'SELECT * FROM '.$table.' LIMIT '.$start.', 10000' );
        $start += 10000;
        $num_rows = mysql_num_rows( $result );

        while( $row = mysql_fetch_row( $result ) ) {
            $line = 'INSERT INTO '.$table.' VALUES(';
            foreach( $row as $value ) {
                $value = addslashes( $value );
                $value = ereg_replace( "\n","\\n", $value );
                $line .= '"'.$value.'",';
            }
            $line = substr( $line, 0, -1 ); // cut the final ','
            $line .= ');\n';
            fwrite( $handle, $line );
        }
    } while( $num_rows !== 0 );
}
于 2012-08-22T00:11:24.863 回答
2

mysql扩展具有mysql_unbuffered_query专门为大型数据库查询而设计的功能。

mysqli中的等价物利用 的第二个参数mysqli_query,例如:

$res = $mysqli->query('SELECT * FROM large_database', MYSQLI_USE_RESULT);
while ($row = $res->fetch_assoc()) {
    ...
}

但是这种方法有一些缺点,例如您无法知道其中的行数,并且在被释放$res之前您无法执行其他查询。$res

于 2015-01-16T12:01:51.050 回答
1

这是一个非常典型的问题,转储以某种方式分配与表大小成正比的内存量。您应该在脚本中实现类似于 mysqldump 中的“--opt”选项,并查看如何转储大型数据库,例如这里https://dba.stackexchange.com/questions/20/how-can-i-optimize-a-大型数据库的 mysqldump

为什么不只使用mysqldump将输出记录到某个文件?

于 2012-08-21T23:43:56.317 回答