我一直在导入大型 CSV 数据文件;通常少于 100,000 条记录。我正在使用 PHP 和 MySQL(InnoDB 表)。我需要在 MySQL 之前使用 PHP 来转换一些字段并进行一些文本处理INSERT
(下面的代码的一部分process_note_data()
)。MySQLLOAD DATA
是不可行的,所以请不要推荐它。
我最近尝试通过使用 MySQL 事务START TRANSACTION
和来提高这个过程的速度COMMIT
。性能提升令人惊讶。处理时间减少了 20 倍。因此,20 分钟的处理只需要大约 1 分钟。
问题。
1.) 有谁明白为什么会有这样的性能提升(20 分钟到 1 分钟)?
2.) 我应该关心 100,000 条记录的交易量有多大吗?
3.) 我应该关心事务中的大量插入和/或更新吗?
/*
* Customer Notes Data:
* Rows are either a meeting, call or note!
*/
$row = 1;
$data = array();
$fields = array();
$line = '';
$db->query('SET autocommit=0;');
$db->query('START TRANSACTION;');
if (($handle = fopen("modules/".$currentModule."/Data/customernote.csv", "r")) !== FALSE) {
while (($data = fgetcsv($handle, 4096, ',', '"')) !== FALSE && $row < 999000) {
//Row 1 - CSV header row with field names
if ($row == 1) {
$csv_fields = $data;
} elseif ($row > 1) {
$fields = $this->process_note_data($data, $csv_fields, $row);
}
$row++;
} // end while
fclose($handle);
}
$db->query('COMMIT;');
$db->query('SET autocommit=1;');
注意:文本/字段处理在调用中完成$this->process_note_data()
,然后调用另一个具有INSERT
语句代码的帮助程序类。我没有足够的空间来包含所有代码。$db->query()
是 MySQL 查询的典型数据库对象。