6

我正在尝试使用 Python 包 Boto 从 Glacier 下载一个大型存档(~ 1 TB)。我正在使用的当前方法如下所示:

import os
import boto.glacier
import boto
import time

ACCESS_KEY_ID = 'XXXXX'
SECRET_ACCESS_KEY = 'XXXXX'
VAULT_NAME = 'XXXXX'
ARCHIVE_ID = 'XXXXX'
OUTPUT = 'XXXXX'

layer2 = boto.connect_glacier(aws_access_key_id = ACCESS_KEY_ID,
                              aws_secret_access_key = SECRET_ACCESS_KEY)

gv = layer2.get_vault(VAULT_NAME)

job = gv.retrieve_archive(ARCHIVE_ID)
job_id = job.id

while not job.completed:
    time.sleep(10)
    job = gv.get_job(job_id)

if job.completed:
    print "Downloading archive"
    job.download_to_file(OUTPUT)

问题是作业 ID 在 24 小时后过期,这不足以检索整个存档。我需要将下载分成至少 4 块。我怎样才能做到这一点并将输出写入单个文件?

4

2 回答 2

4

似乎您可以chunk_size在调用时简单地指定参数,job.download_to_file如下所示:

if job.completed:
    print "Downloading archive"
    job.download_to_file(OUTPUT, chunk_size=1024*1024)

但是,如果您无法在 24 小时内下载所有块,我认为您不能选择仅下载您使用 layer2 错过的块。

第一种方法

使用 layer1 您可以简单地使用get_job_output方法并指定要下载的字节范围。

它看起来像这样:

file_size = check_file_size(OUTPUT)

if job.completed:
    print "Downloading archive"
    with open(OUTPUT, 'wb') as output_file:
        i = 0
        while True:
            response = gv.get_job_output(VAULT_NAME, job_id, (file_size + 1024 * 1024 * i, file_size + 1024 * 1024 * (i + 1)))
            output_file.write(response)
            if len(response) < 1024 * 1024:
                break
            i += 1

使用此脚本,您应该能够在脚本失败时重新运行该脚本,并继续下载您离开它的存档。

第二种方法

通过挖掘 boto 代码,我在 Job 类中找到了一个“私有”方法,您也可以使用它:_download_byte_range。使用这种方法,您仍然可以使用 layer2。

file_size = check_file_size(OUTPUT)

if job.completed:
    print "Downloading archive"
    with open(OUTPUT, 'wb') as output_file:
        i = 0
        while True:
            response = job._download_byte_range(file_size + 1024 * 1024 * i, file_size + 1024 * 1024 * (i + 1)))
            output_file.write(response)
            if len(response) < 1024 * 1024:
                break
            i += 1
于 2015-01-16T16:02:12.060 回答
-1

您必须在boto.connect_glacier函数中添加 region_name,如下所示:

    layer2 = boto.connect_glacier(aws_access_key_id = ACCESS_KEY_ID,
                                aws_secret_access_key = SECRET_ACCESS_KEY,
                                region_name = 'your region name')
于 2018-07-23T09:46:43.593 回答