我正在处理的应用程序有一点问题。该应用程序用作开发人员工具,用于将 MySQL 服务器中的数据库中的表转储到开发人员使用 Unix curl 命令获取的 JSON 文件。到目前为止,我们一直在使用的数据库是相对较小的表(2GB 或更少),但是最近我们进入了另一个测试阶段,使用完全填充的表(40GB+)和我的简单 PHP 脚本中断。这是我的脚本:
[<?php
$database = $_GET['db'];
ini_set('display_errors', 'On');
error_reporting(E_ALL);
# Connect
mysql_connect('localhost', 'root', 'root') or die('Could not connect: ' . mysql_error());
# Choose a database
mysql_select_db('user_recording') or die('Could not select database');
# Perform database query
$query = "SELECT * from `".$database."`";
$result = mysql_query($query) or die('Query failed: ' . mysql_error());
while ($row = mysql_fetch_object($result)) {
echo json_encode($row);
echo ",";
}
?>]
我的问题是我可以做些什么来使这个脚本更好地处理更大的数据库转储。