我对 python 和boto
提供的 S3/Glacier 集成接口都很陌生。然而,我发现了几个似乎特别没有记录/未解决的缺陷,这些缺陷严重阻碍了我当前工作项目的进展。
我最近的困境与库中的restore()
功能有关boto
。很简单,它根本不起作用。一段时间以来,我怀疑该问题与Key
对象在跟踪storage_class
存储在 S3 存储桶中的数据不一致的问题有关。这个页面可以是关于该问题的一些细节的资源:https ://github.com/boto/boto/issues/1173
要详细说明Key
一致性问题,请考虑以下有关已从 S3 归档到 Glacier 的对象的场景:
from boto.s3.connection import S3Connection
from boto.s3.key import Key
...
conn = S3Connection(access_key_id, secret_key)
bucket = conn.get_bucket(bucket_name)
key_object = Key(bucket)
print bucket.get_key(filename).storage_class
...
key_object.key = filename
for item in bucket.list():
if item.key == filename:
break
print item.storage_class
一些澄清。我知道for
在存储桶中搜索密钥的循环效率非常低,但这正是其中的奥秘。
第一条print
语句将产生:u'STANDARD'
第二:u'GLACIER'
现在向前看,我相信这种不一致正在影响restore()
操作的效果。如果我尝试key.restore(days=num_days)
使用上面列出的任一“关键”派生,它们都没有表明它将对象从 Glacier 恢复到标准 S3 可访问性有任何影响。此外,尝试restore
返回None
. 在这一点上,我完全不知道什么可以解释这个故障。这是我的程序错误吗?还是有什么与生俱来的坏事boto
?
您能为我提供的任何帮助将不胜感激。
谢谢你。
注意:我没有忘记基本的错误检查,即文件是否存在于存储桶中?文件已经恢复了吗?等等