我已经用 Python Boto 编写了一个归档系统,该系统将 tar 的几个文件目录上传到 Glacier。这一切都很好,我正在存储所有存档 ID。
我想测试下载一个大档案(大约 120GB)。我启动了检索,但下载花了 > 24 小时,最后,我得到了 403,因为资源不再可用并且下载失败。
如果我直接从我的服务器存档到 Glacier(跳过 S3),是否可以启动将存档恢复到 S3 存储桶的恢复,这样我可能需要超过 24 小时才能下载副本?我在 S3 或 Glacier Boto 文档中都没有看到任何内容。
理想情况下,我会使用 Boto 执行此操作,但会接受其他可编写脚本的选项。有谁知道如何给定一个 archiveId,我可能会着手将档案从 AWS Glacier 移动到 S3 存储桶?如果这是不可能的,还有其他选择可以让我自己有更多时间下载大文件吗?
谢谢!
http://docs.pythonboto.org/en/latest/ref/glacier.html http://docs.pythonboto.org/en/latest/ref/s3.html