112

我在 s3 中创建了一个名为“test”的文件夹,并将“test_1.jpg”、“test_2.jpg”推送到“test”中。

如何使用 boto 删除文件夹“test”?

4

7 回答 7

288

这是2018(几乎是2019)版本:

s3 = boto3.resource('s3')
bucket = s3.Bucket('mybucket')
bucket.objects.filter(Prefix="myprefix/").delete()
于 2018-12-18T15:18:49.240 回答
68

S3中没有文件夹。相反,这些键形成了一个平面命名空间。但是,名称中带有斜杠的键会在某些程序中特别显示,包括 AWS 控制台(参见例如Amazon S3 boto - 如何创建文件夹?)。

您可以(并且必须)按前缀列出文件并删除,而不是删除“目录”。在本质上:

for key in bucket.list(prefix='your/directory/'):
    key.delete()

但是,此页面上其他已完成的答案具有更有效的方法。


请注意,仅使用虚拟字符串搜索来搜索前缀。如果前缀是your/directory,也就是说,没有附加斜杠,程序也会愉快地删除your/directory-that-you-wanted-to-remove-is-definitely-not-t‌​his-one

有关更多信息,请参阅S3 boto 列表键有时会返回目录键。

于 2012-07-11T07:31:21.107 回答
54

我觉得已经有一段时间了,boto3 有几种不同的方式来实现这个目标。这假设您要删除测试“文件夹”及其所有对象这是一种方法:

s3 = boto3.resource('s3')
objects_to_delete = s3.meta.client.list_objects(Bucket="MyBucket", Prefix="myfolder/test/")

delete_keys = {'Objects' : []}
delete_keys['Objects'] = [{'Key' : k} for k in [obj['Key'] for obj in objects_to_delete.get('Contents', [])]]

s3.meta.client.delete_objects(Bucket="MyBucket", Delete=delete_keys)

这应该发出两个请求,一个是获取文件夹中的对象,第二个是删除所述文件夹中的所有对象。

https://boto3.readthedocs.org/en/latest/reference/services/s3.html#S3.Client.delete_objects

于 2016-01-19T22:23:24.077 回答
24

帕特里克的解决方案略有改进。您可能知道,两者list_objects()delete_objects()对象限制为 1000。这就是为什么您必须对列表进行分页并分块删除的原因。这是非常普遍的,您可以Prefix删除paginator.paginate()子目录/路径

client = boto3.client('s3', **credentials)
paginator = client.get_paginator('list_objects_v2')
pages = paginator.paginate(Bucket=self.bucket_name)

delete_us = dict(Objects=[])
for item in pages.search('Contents'):
    delete_us['Objects'].append(dict(Key=item['Key']))

    # flush once aws limit reached
    if len(delete_us['Objects']) >= 1000:
        client.delete_objects(Bucket=bucket, Delete=delete_us)
        delete_us = dict(Objects=[])

# flush rest
if len(delete_us['Objects']):
    client.delete_objects(Bucket=bucket, Delete=delete_us)
于 2017-04-16T11:32:00.990 回答
23

您可以将bucket.delete_keys()与键列表一起使用(对于大量的键,我发现这比使用 key.delete 快一个数量级)。

像这样的东西:

delete_key_list = []
for key in bucket.list(prefix='/your/directory/'):
    delete_key_list.append(key)
    if len(delete_key_list) > 100:
        bucket.delete_keys(delete_key_list)
        delete_key_list = []

if len(delete_key_list) > 0:
    bucket.delete_keys(delete_key_list)
于 2013-04-11T13:13:38.967 回答
6

如果在 S3 存储桶上启用了版本控制:

s3 = boto3.resource('s3')
bucket = s3.Bucket('mybucket')
bucket.object_versions.filter(Prefix="myprefix/").delete()
于 2020-08-05T13:33:41.670 回答
1

如果需要像我一样按对象内容过滤,以下是您的逻辑蓝图:

def get_s3_objects_batches(s3: S3Client, **base_kwargs):
    kwargs = dict(MaxKeys=1000, **base_kwargs)
    while True:
        response = s3.list_objects_v2(**kwargs)
        # to yield each and every file: yield from response.get('Contents', [])
        yield response.get('Contents', [])
        if not response.get('IsTruncated'):  # At the end of the list?
            break
        continuation_token = response.get('NextContinuationToken')
        kwargs['ContinuationToken'] = continuation_token


def your_filter(b):
   raise NotImplementedError()


session = boto3.session.Session(profile_name=profile_name)
s3client = session.client('s3')
for batch in get_s3_objects_batches(s3client, Bucket=bucket_name, Prefix=prefix):
    to_delete = [{'Key': obj['Key']} for obj in batch if your_filter(obj)]
    if to_delete:
        s3client.delete_objects(Bucket=bucket_name, Delete={'Objects': to_delete})
于 2020-12-16T17:25:30.137 回答