我正在尝试从具有 > 50M 行的表中备份一些数据。桌子看起来像这样
#
entry_id : int unsignedauto_increment # unique entry id
---
time=CURRENT_TIMESTAMP : timestamp # current timestamp
room : varchar(255) # Room
id : varchar(255) # Sensor ID / NAME
value : double # sensor value
我的计划是
- 获取有限数量的 KEYS(即
fetch('KEY', limit=some_large_number)
) - 检索这些 KEYS 的表条目
- 将数据块保存在磁盘上
- 删除属于 KEYS 的表条目
- 重来 ...
只是获取,比如说 1_000_000 个条目,相当快(几秒钟),但是如果我想通过检索主键 - > 获取数据 - > 删除这些条目 - 我基本上被困在获取数据(> 20 分钟) ~ 100_000 个条目或超时(?))。
使用数据联合逻辑执行此任务的最优雅/最省时的方法是什么?
(数据联合python版'0.13.2'
)