我需要将一些目前不太大的 DynamoDB 表备份到 S3。但是,这些是另一个团队使用/处理的表格,但不是我。这些备份需要每周进行一次,并且仅用于在灾难性情况下恢复 DynamoDB 表(因此希望永远不会)。我看到有一种方法可以通过设置数据管道来做到这一点,我猜你可以安排每周做一次这项工作。但是,这似乎会使管道保持畅通并开始产生费用。所以我想知道,通过管道备份表和保持打开状态之间是否存在显着的成本差异,或者创建类似于 powershellscript 的东西,该脚本将被安排在已经存在的 EC2 实例上运行,该实例将手动创建一个 JSON 映射文件并将其更新到 S3。
另外,我想另一个问题更像是一个实用性问题。将 dynamoDB 表备份为 Json 格式有多难。这似乎不太难,但不确定。抱歉,如果这些问题太笼统。
问问题
633 次
2 回答
0
您是否在假设 Data Pipeline 使服务器永远保持正常运行的情况下工作?事实并非如此。
比如你定义了一个Shell Activity,Activity完成后,服务器会终止。(您可以手动设置终止保护。 参考。
由于您每周只运行一次管道,因此成本并不高。
如果您在 ec2 实例上运行 cron 作业,则当您要运行备份时该实例需要启动 - 这可能是一个故障点。
顺便说一句,亚马逊提供了一个关于如何从 dynamodb 导出数据的 Datapipeline 示例。
于 2015-09-20T13:29:58.423 回答
0
我刚刚检查了管道成本页面,它显示“例如,在 AWS 上运行日常作业(低频活动)以将 Amazon DynamoDB 表复制到 Amazon S3 的管道每月花费 0.60 美元”。所以我觉得我很安全。
于 2015-09-20T21:43:15.380 回答