我正在使用 DSBulk 实用程序将数据从 EC2 Cassandra 节点迁移到 DataStax Astra(高级帐户)。
使用的命令:
dsbulk load -url folder_created_during_unload -header true -k keyspace -t table -b "secure-connect-file.zip" -u username -p password
该命令在几秒钟后给出错误。在检查文档时,我发现我可以添加--executor.maxPerSecond
这个命令来限制加载。
在此之后,加载命令执行没有任何错误。但是如果我输入一个超过 15,000 的值,加载命令会再次开始给出错误。
现在,如果一个表有超过 100M 的条目,并且每秒迁移 15,000 个条目,那么完成一个表的迁移需要数小时和数小时。迁移完整的数据库需要几天时间。
我想了解导致此错误的原因以及是否有办法以更高的速度加载数据。