所以基本上我有一堆 1 Gig 数据文件(压缩),其中只有包含带有时间戳和其他内容的 JSON 数据的文本文件。
我将使用 PHP 代码将此数据插入 MYSQL 数据库。
我将无法将这些文本文件存储在内存中!因此,我必须逐行处理每个数据文件。为此,我使用了 stream_get_line()。
- 包含的一些数据将是更新,一些将是插入。
问题 使用 Insert / Select / Update 语句或创建 CSV 文件并以这种方式导入会更快吗?
创建一个批量操作的文件,然后从 sql 执行它?
我基本上需要使用不存在的主键插入数据,如果主键确实存在,则更新数据字段。但我会在大量的情况下这样做。
性能始终是问题。
更新 该表有 22,000 列,只说其中 10-20 不包含 0。