问题标签 [amazon-glacier]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
amazon-web-services - 是否有任何亚马逊 s3 api 列出亚马逊冰川上的所有对象
我想列出亚马逊冰川上的所有物体。这样我就可以从冰川中恢复需要的对象。是否有任何亚马逊 api 可以列出冰川上的所有对象。
version-control - 我可以同时使用 S3 生命周期策略和版本控制吗?
我希望对我的 S3 存储桶进行版本控制,以防止意外修改。此外,我希望 S3 中的对象在 30 天后存档到 Glacier。
当我去启用版本控制时,它说
启用后,无法禁用版本控制,您将无法为此存储桶添加生命周期规则。
但是,我可以为存储桶添加生命周期规则,然后启用版本控制。
此外,在这种情况下如何恢复工作。例如,在第 1 天,我的存储桶中有文件 A、B、C。在第 20 天,我有文件 A、B1、C1、D。在第 30 天,对象被移动到 S3。现在,当我在第 40 天进行恢复时,我的存储桶中是否还有文件 B 的所有版本?
python-2.7 - boto 的 Glacier-to-S3 restore() 功能不起作用
我对 python 和boto
提供的 S3/Glacier 集成接口都很陌生。然而,我发现了几个似乎特别没有记录/未解决的缺陷,这些缺陷严重阻碍了我当前工作项目的进展。
我最近的困境与库中的restore()
功能有关boto
。很简单,它根本不起作用。一段时间以来,我怀疑该问题与Key
对象在跟踪storage_class
存储在 S3 存储桶中的数据不一致的问题有关。这个页面可以是关于该问题的一些细节的资源:https ://github.com/boto/boto/issues/1173
要详细说明Key
一致性问题,请考虑以下有关已从 S3 归档到 Glacier 的对象的场景:
一些澄清。我知道for
在存储桶中搜索密钥的循环效率非常低,但这正是其中的奥秘。
第一条print
语句将产生:u'STANDARD'
第二:u'GLACIER'
现在向前看,我相信这种不一致正在影响restore()
操作的效果。如果我尝试key.restore(days=num_days)
使用上面列出的任一“关键”派生,它们都没有表明它将对象从 Glacier 恢复到标准 S3 可访问性有任何影响。此外,尝试restore
返回None
. 在这一点上,我完全不知道什么可以解释这个故障。这是我的程序错误吗?还是有什么与生俱来的坏事boto
?
您能为我提供的任何帮助将不胜感激。
谢谢你。
注意:我没有忘记基本的错误检查,即文件是否存在于存储桶中?文件已经恢复了吗?等等
amazon-web-services - 分层冰川对象检索
我想恢复 Amazon S3 存储桶中的所有对象,该存储桶现在冻结在 Glacier 中。这些是我在桶内的文件夹:
$ aws s3 ls s3://cogrehab
PRE baseline/
PRE codes/
PRE logs/
PRE tp1/
PRE tp2/
2014-05-17 20:14:00 27 about.txt
因此,根据此处的另一个问题如何将文件夹(或整个存储桶)从 Glacier 还原到 Amazon S3?我进行如下操作:
但我得到这个错误:
amazon-s3 - 将 Glacier 永久恢复到 S3
我想知道是否有一种简单的方法可以将 Glacier 对象永久恢复到 S3。您似乎可以在恢复到 S3 时提供的一定时间内恢复 Glacier 对象。例如,我们现在有数千个文件恢复到 S3,这些文件将在 90 天内返回 Glacier,但我们不希望它们返回 Glacier。
amazon-web-services - 如何在控制检索成本的同时从冰川中检索数据?
我需要制作一个应用程序,需要将数据集从亚马逊冰川检索到 S3。应用程序通常在要求之前就知道任何数据请求。我需要以最小化总检索成本的方式分配检索。从 S3 控制台进行的检索不要求检索,并且发生速度为 4 小时,这导致了巨大的成本。
是否有适用于 Linux 的免费可用选项。在搜索中,我发现了几个主要针对 windows 平台的付费软件。我认为一段简单的代码应该可以完成这项工作,但我无法设置检索时间的选项。
编辑:我编写了这段代码来将检索请求传播到更长的时间。与单次检索相比,这会降低我的成本吗?
amazon-web-services - 是否可以在一段时间后自动将对象从 S3 存储桶移动到另一个存储桶?
我有一个 S3 存储桶,它可以非常快速地积累对象,我想自动将一周以上的对象移动到另一个存储桶。是否可以通过政策来做到这一点,如果可以,政策会是什么样子。
如果无法移动到另一个 S3 存储桶,它们是否还有其他自动机制可以将它们归档到冰川中?
node.js - 节点读取指定块大小的文件
目标:将大文件上传到 AWS Glacier,而不会将整个文件保存在内存中。
我目前正在使用 fs.readFileSync() 上传到冰川,一切正常。但是,我需要处理大于 4GB 的文件,并且我想并行上传多个块。这意味着转向分段上传。我可以选择块大小,但冰川需要每个块的大小相同(最后一个除外)
该线程建议我可以在读取流上设置块大小,但实际上并不能保证得到它。
关于如何在不将整个文件读入内存并手动拆分的情况下获得一致部分的任何信息?
假设我能做到这一点,我将使用集群,其中有几个进程尽可能快地从流中拉出,因为它们可以上传到 AWS。如果这似乎是并行工作的错误方式,我会喜欢那里的建议。
java - 使用他们的 HI-Level API(在他们的 java SDK 中)从 glacier 下载存档
当我使用 Java SDK 的高级 API 从 glacier 下载档案并且程序被中断时会发生什么?
如果我使用低级 API,我可以发送一个请求来准备我的下载,然后在几个小时后下载它。我不需要在这些操作之间一直运行我的应用程序。
amazon-web-services - 如何从 Amazon Glacier 中删除文件
我一直在使用 Amazon S3 和 glacier 来备份一些服务器。该法案一直在稳步增长,并决定进行一些春季大扫除。
从 S3 浏览器中,我可以看到所有已选择的存档文件并删除了其中的大部分,我以为我已经完成了,但我刚刚收到了最新的发票,而且 Glacier 的存储量并没有减少。
如何删除这些旧备份。有没有好用的工具?