我无法决定通过 Azure 存储处理以下场景的最佳方法。
- ~1500+ CSV 文件在 ~1MB 到 ~500MB 之间 ~20GB 数据
- 每个文件使用完全相同的模型,每个model.toString()是 ~50 个字符 ~400byte
- 每个工作日,在 6 小时内,每分钟约 8000 多个新行
- 根据属性值,每一行都转到正确的文件
- 只要支持多读,就不需要多实例写入,即使快照周期有几秒钟的延迟也可以。
我想使用Block Blob,但将约 400MB 的单个文件下载到计算机中,只是添加一行并将其上传回来是没有意义的,我找不到其他方法。
不幸的是,有一个使用Page Blob的 Drive 选项不受 SDKv2 支持,这让我担心可能会停止支持
最后一个是Table看起来不错,除了继续读取几十万行之外可能会成为一个问题
基本上,我更喜欢在立即检索数据时写入文件。但是,如果值得放弃,我可以在一天结束时接受一次更新,这意味着每个文件大约 300-1000 行
处理这种情况的最佳方法是什么?